Spelling suggestions: "subject:"successive"" "subject:"successively""
1 |
Le mouvement des images : la lecture du temps / The movement of images : reading of the timeLin, Chih-Wei 31 January 2014 (has links)
Nous avons toujours été attirés par les images successives, car nos yeux passent d’une image à l’autre automatiquement. Il semble que ces images attirent notre regard. Néanmoins, malgré ce genre d’images employées depuis longtemps, nous ne savons pas grand chose sur elles. Ainsi, comme les images attirent notre regard, et que celui-Ci passe de l’une à l’autre, un certain temps existe dans cette action, ou plutôt parmi ces images. Mais, cette question reste compliquée et difficile à démêler. Ces questions sur les images successives forment une partie de notre problématique. Dans notre thèse, nous avons réfléchi sur l’ontologie des images successives, et avons pensé ces questions à travers la manière de raconter les phénomènes de ces images uniques. Nous nous sommes penchés sur les images successives en fonction de la philosophie. A travers les théories de l’empirisme anglais, nous avons trouvé une voie, à savoir la réalité de ce genre d’images, et cette réflexion sur l’ontologie du mouvement des images successives constitue la première partie de notre recherche. En étendant notre pensée sur le mouvement des images successives, nous avons tenté de résoudre les questions sur le temps, autrement dit, de la durée dans les images successives. Selon les théories de Bergson, Deleuze et Bachelard, nos réflexions sur le temps, la durée en général, la durée dans les images successives, la vie...etc, forment la deuxième partie, dans laquelle nous abordons le travelling et l’intervalle. Quelques exemples artistiques accompagnent nos théories philosophiques, pour les comprendre dont les applications. Ainsi, pour la troisième partie de cette thèse, nous avons réalisé des aquarelles pour appliquer et examiner nos théories. De plus, à travers notre pratique artistique, nous avons trouvé des idées nouvelles, ainsi que les problématiques de notre recherche prochaine. En composant les théories, les exemples et l’exécution artistiques, cette étude, qui traverse divers domaines, à savoir la philosophie, la photographie, la cinématographie et l’art plastique, s’est attachée à résoudre principalement notre soif de connaissance sur les images successives. / We have always been attracted by the successive images, as we automatically look at them one after the other. It seems that these images attract our look. Nevertheless, in spite of this type of images long practice, we don’t know much about them. In this way, because these images attract our look, and our look passes from one to another, some time exists in this action, or rather among these images. However, this question remain complex and difficult to untangle. These questions considered about successive images form a part of our problems. In our thesis, we have the ontology of successive images, and we have thought these questions through the manner of telling phenomenon of these unique images. We looked into successive images according to the philosophy. Through theories of the English empiricism, we found a way, namely the reality of these type of images, and this reflection about the ontology of these successive images movement constitutes the first part of our research. Extending our thought on the movement of successive images, we attempted to solve questions on the time, in other words, on the duration in successive images. According to the Bergson’s theories, Deleuze’s and Bachelard’s, our thoughts on time, duration generally, duration in successive images, life…etc, form the second part, in which we consider the travelling and the interval. Some artistic examples accompany our philosophical theories, in order to understand their application. In this way, for the third part of this thesis, we have realized watercolor to enforce and examine our theories. Further, through our artistic practice, we have found new ideas, as well as our future research problems. In composing these theories, artistic examples and implementation, our research which is interdisciplinary, namely philosophy, photography, cinematography and plastic arts, devoted to mainly resolve our thirst of knowledge about successive images.
|
2 |
Développement d'une méthode de mesure de la longueur de la couche limite triphasée utilisant une méthode tomographiqueRivard, Tony January 2014 (has links)
Dans les piles à combustible à électrolyte solide, l’interface électrode/électrolyte appelée la couche limite triphasée est le site de la réaction électrochimique permettant aux piles à combustible de fournir de la puissance. Le présent travail propose une approche tomographique par faisceau d’ions focalisés pour mesurer la longueur de la couche limite triphasée. Les images sont ensuite capturées par microscopie à balayage électronique et sont transformées en matrices binaires pour le traitement Matlab. Un algorithme, basé sur la théorie de Hoshen-Kopelman, a ensuite été appliqué pour mesurer la longueur de la couche limite triphasée et le pourcentage de connectivité. Cet algorithme a été appliqué sur un empilement de 80 images obtenues par tomographie d’une cathode réelle obtenu par sérigraphie. Le résultat obtenu est de 0,0142 voxels/voxels[indice supérieur 3], ce qui équivaut à 207,2 nm/nm[indice supérieur 3] selon le calcul en fonction de la longueur caractéristique d’un voxel. Une courbe de calibration a été produite afin de transformer la valeur de la longueur de la couche limite triphasée en valeur de résistance au transfert de charges par l’entremise du spectre d’impédance, mesurée à partir d’un système de microélectrodes à motifs.
|
3 |
Sur la résolution des équations intégrales singulières à noyau de Cauchy / [For solving Cauchy singular integral equations]Mennouni, Abdelaziz 27 April 2011 (has links)
L'objectif de ce travail est la résolution des équations intégrales singulières à noyau Cauchy. On y traite les équations singulières de Cauchy de première espèce par la méthode des approximations successives. On s'intéresse aussi aux équations intégrales à noyau de Cauchy de seconde espèce, en utilisant les polynômes trigonométriques et les techniques de Fourier. Dans la même perspective, on utilise les polynômes de Tchebychev de quatrième degré pour résoudre une équation intégro différentielle à noyau de Cauchy. Ensuite, on s'intéresse à une autre équation intégro-différentielle à noyau de Cauchy, en utilisant les polynômes de Legendre, ce qui a donné lieu à développer deux méthodes basées sur une suite de projections qui converge simplement vers l'identité. En outre, on exploite les méthodes de projection pour les équations intégrales avec des opérateurs intégraux bornés non compacts et on a appliqué ces méthodes à l'équation intégrale singulière à noyau de Cauchy de deuxième espèce / The purpose of this thesis is to develop and illustrate various new methods for solving many classes of Cauchy singular integral and integro-differential equations. We study the successive approximation method for solving Cauchy singular integral equations of the first kind in the general case, then we develop a collocation method based on trigonometric polynomials combined with a regularization procedure, for solving Cauchy integral equations of the second kind. In the same perspective, we use a projection method for solving operator equation with bounded noncompact operators in Hilbert spaces. We apply a collocation and projection methods for solving Cauchy integro-differential equations, using airfoil and Legendre polynomials
|
4 |
Algorithmique pour les Réseaux Bayésiens et leurs extensionsSmail, Linda 30 April 2004 (has links) (PDF)
Cette thèse est consacrée à la présentation d'un algorithme nouveau et à la formalisation et l'amélioration d'algorithmes existants pour le calcul des lois marginales et conditionnelles dans les réseaux bayésiens.<br /> Le chapitre 1 présente la théorie des réseaux bayésiens. Nous introduisons une nouvelle notion, celle de réseau bayésien de niveau deux, utile pour l'introduction de notre algorithme de calcul sur les réseaux bayésiens ; nous donnons également quelques résultats fondamentaux et nous situons dans notre formalisme un exemple d'école de réseau bayésien dit «Visite en Asie» .<br />Dans le second chapitre, nous exposons une propriété graphique appelée «d-séparation» grâce à laquelle on peut déterminer, pour tout couple de variables aléatoires ou de groupes de variables, et tout ensemble de conditionnement, s'il y a nécessairement, ou non, indépendance conditionnelle. Nous présentons également dans ce chapitre des résultats concernant le calcul de probabilités ou probabilités conditionnelles dans les réseaux bayésiens en utilisant les propriétés de la d-séparation. Ces résultats, qui concernent des écritures à notre connaissance originales de la factorisation de la loi jointe et de la loi conditionnée d'une famille de variables aléatoires du réseau bayésien (en liaison avec la notion de réseau bayésien de niveau deux) doivent trouver leur utilité pour les réseaux bayésiens de grande taille.<br />Le troisième chapitre donne la présentation détaillée et la justification d'un des algorithmes connus de calcul dans les réseaux bayésiens : il s'agit de l'algorithme LS (Lauritzen and Spigelhalter), basé sur la méthode de l'arbre de jonction. Pour notre part, après avoir présenté la notion de suite recouvrante propre possédant la propriété d'intersection courante, nous proposons un algorithme en deux versions (dont l'une est originale) qui permet de construire une suite de parties d'un réseau bayésien possédant cette propriété. Cette présentation est accompagnée d'exemples. <br />Dans le chapitre 4, nous donnons une présentation détaillée de l'algorithme des restrictions successives que nous proposons pour le calcul de lois (dans sa première version), et de lois conditionnelles (dans sa deuxième version). Cela est présenté après l'introduction d'une nouvelle notion : il s'agit de la descendance proche. Nous présentons également une application de l'algorithme des restrictions successives sur l'exemple «Visite en Asie» présenté en chapitre 1, et nous comparons le nombre d'opérations élémentaires effectuées avec celui qui intervient dans l'application de l'algorithme LS sur le même exemple. Le gain de calcul qui, à la faveur de cet exemple, apparaît au profit de l'algorithme des restrictions successives, sera comme toujours, d'autant plus marqué que la taille des réseaux et le nombre de valeurs prises par les variables seront plus élevés. C'est ce qui justifie l'insertion de notre algorithme au seins de « ProBT » , un logiciel d'inférence probabiliste, réalisé et diffusé par l'équipe Laplace localisée dans le laboratoire Gravir à INRIA Rhône Alpes. <br />En annexes nous rappelons les propriétés des graphes orientés sans circuits, les notions de base sur l'indépendance conditionnelle et l'équivalence de plusieurs définitions des réseaux bayésiens.
|
5 |
Solution and melt behaviour of high-density polyethylene - Successive Solution Fractionation mechanism - Influence of the molecular structure on the flowStephenne, Vincent 26 August 2003 (has links)
SOLUTION AND MELT BEHAVIOUR OF HIGH-DENSITY POLYETHYLENE
- Successive Solution Fractionation mechanism
- Influence of the molecular structure on the flow
In the field of polyethylene characterization, one of the most challenging research topic is certainly an accurate molecular structure determination of industrial products, in terms of molar mass distribution (MMD), corresponding average-molar masses and molecular architecture (branching nature, content and heterogeneity). Solution to this long-term problem necessarily calls for a multi-disciplinary approach. Therefore, respective advantages of molecular structure characterization in solution and in the melt are exploited.
In solution, chromatographic and spectroscopic methods allow determination of MMD, average branching content and intermolecular heterogeneity within their detection limits. Rheological testing in the melt could be a very powerful molecular structure investigation tool, due to its extreme sensitivity to high molar mass (MM) tailing or long chain branching (LCB) traces. But when the rheological tests results are in hand, we often still wonder what kind of molecular structure gives rise to such results. Indeed, melt signal depends on MM, MMD and LCB presence. MMD determination and LCB quantification by melt approach is impossible as long as respective effects of these molecular parameters are not clearly quantified.
The general purpose of the present work is to contribute to a better molecular structure characterization of high-density polyethylene by developing, in a first time, a preparative fractionation method able to provide narrow-disperse linear and long chain branched samples, essential to separate concomitant effects of MM, MMD and LCB on rheological behaviour. Once such model fractions isolated, influence of MM and LCB on both shear and elongational flow behaviours in the melt is studied.
/Dans le domaine du polyéthylène, un des sujets de recherche les plus investigués à l'heure actuelle est la détermination précise de la structure moléculaire de résines industrielles, en termes de distribution des masses molaires (MMD), de masses molaires moyennes correspondantes et d'architecture moléculaire (nature, teneur et hétérogénéité). La résolution de cette problématique nécessite une approche multi-disciplinaire, afin d' exploiter simultanément les avantages d'une caractérisation en solution et à l'état fondu.
En solution, certaines méthodes chromatographiques et spectroscopiques permettent de déterminer une MMD, une teneur moyenne en branchement et leur distribution, dans leurs limites de détection. La mesure du comportement rhéologique à l'état fondu pourrait s'avérer un formidable outil de caractérisation de la structure moléculaire en raison de son extrême sensibilité à certains détails moléculaires, tels que la présence de traces de LCB ou de très hautes masses molaires (MM). Malheureusement, le signal rhéologique dépend de manière conjointe de la MM, MMD et de la présence ou non de LCB, de telle sorte que la détermination d'une MMD ou d'une teneur en LCB par cette voie est impossible aussi longtemps que les effets respectifs de ces paramètres moléculaires sur le comportement rhéologique n'ont pas été clairement et distinctement établis.
L'objectif global de cette thèse est de contribuer à une meilleure caractérisation de la structure moléculaire du polyéthylène haute densité en développant, dans un premier temps, une méthode préparative de fractionnement capable de produire des échantillons, linéaires ou branchés, à MMD la plus étroite possible, indispensables en vue de séparer les effets concomitants de la MM, MMD et LCB sur le comportement rhéologique à l'état fondu.
Une fois de tels objets modèles isolés, l'influence de la MM et du LCB sur le comportement rhéologique, en cisaillement et en élongation, sera étudié.
|
6 |
Sur la résolution des équations intégrales singulières à noyau de CauchyMennouni, Abdelaziz, Mennouni, Abdelaziz 27 April 2011 (has links) (PDF)
L'objectif de ce travail est la résolution des équations intégrales singulières à noyau Cauchy. On y traite les équations singulières de Cauchy de première espèce par la méthode des approximations successives. On s'intéresse aussi aux équations intégrales à noyau de Cauchy de seconde espèce, en utilisant les polynômes trigonométriques et les techniques de Fourier. Dans la même perspective, on utilise les polynômes de Tchebychev de quatrième degré pour résoudre une équation intégro différentielle à noyau de Cauchy. Ensuite, on s'intéresse à une autre équation intégro-différentielle à noyau de Cauchy, en utilisant les polynômes de Legendre, ce qui a donné lieu à développer deux méthodes basées sur une suite de projections qui converge simplement vers l'identité. En outre, on exploite les méthodes de projection pour les équations intégrales avec des opérateurs intégraux bornés non compacts et on a appliqué ces méthodes à l'équation intégrale singulière à noyau de Cauchy de deuxième espèce
|
7 |
Développement d’un convertisseur analogique-numérique innovant dans le cadre des projets d’amélioration des systèmes d’acquisition de l’expérience ATLAS au LHC / Development of an innovative analog-digital converter chip in the scope of the upgrade of data acquisition infrastructure of the ATLAS experiment at the LHCZeloufi, Mohamed 09 November 2016 (has links)
À l’horizon 2024, l’expérience ATLAS prévoit de fonctionner à des luminosités 10 fois supérieures à la configuration actuelle. Par conséquent, l’électronique actuelle de lecture ne correspondra pas aux conditions de ces luminosités. Dans ces conditions, une nouvelle électronique devra être conçue. Cette mise à niveau est rendue nécessaire aussi par les dommages causés par les radiations et le vieillissement. Une nouvelle carte frontale va être intégrée dans l’électronique de lecture du calorimètre LAr. Un élément essentiel de cette carte est le Convertisseur Analogique-Numérique (CAN) présentant une résolution de 12bits pour une fréquence d’échantillonnage de 40MS/s, ainsi qu’une résistance aux irradiations. Compte tenu du grand nombre des voies, ce CAN doit remplir des critères sévères sur la consommation et la surface. Le but de cette thèse est de concevoir un CAN innovant qui peut répondre à ces spécifications. Une architecture à approximations successives (SAR) a été choisie pour concevoir notre CAN. Cette architecture bénéficie d’une basse consommation de puissance et d’une grande compatibilité avec les nouvelles technologies CMOS. Cependant, le SAR souffre de certaines limitations liées principalement aux erreurs de décisions et aux erreurs d’appariement des capacités du CNA. Deux prototypes de CAN-SAR 12bits ont été modélisés en Matlab afin d’évaluer leur robustesse. Ensuite les conceptions ont été réalisées dans une technologie CMOS 130nm d’IBM validée par la collaboration ATLAS pour sa tenue aux irradiations. Les deux prototypes intègrent un algorithme d’approximations avec redondance en 14 étapes de conversion, qui permet de tolérer des marges d’erreurs de décisions et d’ajouter une calibration numérique des effets des erreurs d’appariement des capacités. La partie logique de nos CAN est très simplifiée pour minimiser les retards de génération des commandes et la consommation d’énergie. Cette logique exécute un algorithme monotone de commutation des capacités du CNA permettant une économie de 70% de la consommation dynamique par rapport à un algorithme de commutation classique. Grâce à cet algorithme, une réduction de capacité totale est aussi obtenue : 50% en comparant notre premier prototype à un seul segment avec une architecture classique. Pour accentuer encore plus le gain en termes de surface et de consommation, un second prototype a été réalisé en introduisant un CNA à deux segments. Cela a abouti à un gain supplémentaire d’un facteur 7,64 sur la surface occupée, un facteur de 12 en termes de capacité totale, et un facteur de 1,58 en termes de consommation. Les deux CAN consomment respectivement une puissance de ~10,3mW et ~6,5mW, et ils occupent respectivement une surface de ~2,63mm2 et ~0,344mm2.Afin d’améliorer leurs performances, un algorithme de correction numérique des erreurs d’appariement des capacités a été utilisé. Des buffers de tensions de référence ont étés conçus spécialement pour permettre la charge/décharge des capacités du convertisseur en hautes fréquences et avec une grande précision. En simulations électriques, les deux prototypes atteignent un ENOB supérieur à 11bits tout en fonctionnant à la vitesse de 40MS/s. Leurs erreurs d’INL simulés sont respectivement +1,14/-1,1LSB et +1,66/-1,72LSB.Les résultats de tests préliminaires du premier prototype présentent des performances similaires à celles d’un CAN commercial de référence sur notre carte de tests. Après la correction, ce prototype atteint un ENOB de 10,5bits et un INL de +1/-2,18LSB. Cependant suite à une panne de carte de tests, les résultats de mesures du deuxième prototype sont moins précis. Dans ces circonstances, ce dernier atteint un ENOB de 9,77bits et un INL de +7,61/-1,26LSB. En outre la carte de tests actuelle limite la vitesse de fonctionnement à ~9MS/s. Pour cela une autre carte améliorée a été conçue afin d’atteindre un meilleur ENOB, et la vitesse souhaitée. Les nouvelles mesures vont être publiées dans le futur. / By 2024, the ATLAS experiment plan to operate at luminosities 10 times the current configuration. Therefore, many readout electronics must be upgraded. This upgrade is rendered necessary also by the damage caused by years of total radiations’ effect and devices aging. A new Front-End Board (FEB) will be designed for the LAr calorimeter readout electronics. A key device of this board is a radiation hard Analog-to-Digital Converter (ADC) featuring a resolution of 12bits at 40MS/s sampling rate. Following the large number of readout channels, this ADC device must display low power consumption and also a low area to easy a multichannel design.The goal of this thesis is to design an innovative ADC that can deal with these specifications. A Successive Approximation architecture (SAR) has been selected to design our ADC. This architecture has a low power consumption and many recent works has shown his high compatibility with modern CMOS scaling technologies. However, the SAR has some limitations related to decision errors and mismatches in capacitors array.Using Matlab software, we have created the models for two prototypes of 12bits SAR-ADC which are then used to study carefully their limitations, to evaluate their robustness and how it could be improved in digital domain.Then the designs were made in an IBM 130nm CMOS technology that was validated by the ATLAS collaboration for its radiation hardness. The prototypes use a redundant search algorithm with 14 conversion steps allowing some margins with comparator’s decision errors and opening the way to a digital calibration to compensate the capacitors mismatching effects. The digital part of our ADCs is very simplified to reduce the commands generation delays and saving some dynamic power consumption. This logic follows a monotonic switching algorithm which saves about70% of dynamic power consumption compared to the conventional switching algorithm. Using this algorithm, 50% of the total capacitance reduction is achieved when one compare our first prototype using a one segment capacitive DAC with a classic SAR architecture. To boost even more our results in terms of area and consumption, a second prototype was made by introducing a two segments DAC array. This resulted in many additional benefits: Compared to the first prototype, the area used is reduced in a ratio of 7,6, the total equivalent capacitance is divided by a factor 12, and finally the power consumption in improved by a factor 1,58. The ADCs respectively consume a power of ~10,3mW and ~6,5mW, and they respectively occupy an area of ~2,63mm2 and ~0,344mm2.A foreground digital calibration algorithm has been used to compensate the capacitors mismatching effects. A high frequency open loop reference voltages buffers have been designed to allow the high speed and high accuracy charge/discharge of the DAC capacitors array.Following electrical simulations, both prototypes reach an ENOB better than 11bits while operating at the speed of 40MS/s. The INL from the simulations were respectively +1.14/-1.1LSB and +1.66/-1.72LSB.The preliminary testing results of the first prototype are very close to that of a commercial 12bits ADC on our testing board. After calibration, we measured an ENOB of 10,5bits and an INL of +1/-2,18LSB. However, due to a testing board failure, the testing results of the second prototype are less accurate. In these circumstances, the latter reached an ENOB of 9,77bits and an INL of +7,61/-1,26LSB. Furthermore the current testing board limits the operating speed to ~9MS/s. Another improved board was designed to achieve a better ENOB at the targeted 40MS/s speed. The new testing results will be published in the future.
|
8 |
La répartition des responsabilités dans les chaînes translatives de propriété / Contract chains’ liability casesHiriart, Hélène 12 December 2018 (has links)
L’objectif de la thèse est de réévaluer de façon globale la pertinence et la cohérence de la construction légale et jurisprudentielle actuelle organisant les recours dans les chaînes translatives de propriété. En dépit de contributions doctrinales nombreuses, les solutions se sont accumulées sans que leur articulation soit précisément examinée. L’enjeu de cet examen est d’autant plus important que le contexte général a changé (responsabilité du fait des produits, remise en cause des actions contractuelles, projets de réforme du droit de la responsabilité). L’étude est organisée autour de deux types de dommages : le dommage strictement contractuel et le dommage non strictement contractuel. La première partie évalue le droit positif et ses incertitudes (fondement de l’action directe, opposabilité des clauses de responsabilité au sous-acquéreur, recours en contribution etc.), au regard du manquement strictement contractuel (atteinte à l’utilité du contrat). La seconde partie permet de mettre en lumière les difficultés d’articulation des diverses actions désignées pour réparer le dommage non strictement contractuel, ces difficultés nous conduisant à nous interroger sur la nature de la responsabilité qui doit présider, dans les chaînes translatives de propriété, à la réparation des atteintes au contractant. L’ensemble de ces questions permet enfin d’identifier les grands critères et les logiques communes de répartition des responsabilités dans les chaînes translatives de propriété. / The purpose of this thesis is to reexamine on a global scale the adequacy and consistency of the current jurisprudential and legal framework related to the contract chains’ liability cases. Despite a large number of doctrinal contributions, the solutions have indeed been aggregated without any underlying logical implication being further investigated. This type of considerations is becoming all the more impactful that the legal environment has evolved. The goal of the first part is to assess the current state of the law and its uncertainties (the direct action ground, enforceability of limitation clause to consumer, contribution to the debt among co-debtors) when it comes to the pure contractual injury, that is when the usefulness of the contract is to be jeopardized. The second part is focuses on how it is hard to articulate the different actions in order to repair non-pure contractual injury. The assessment of those difficulties will bring us to wonder which nature of liability should prevail to repair injuries within property chains. Finally, answering those questions will lead us to identify the major criteria and the common rationales used to spread liability within property chains.
|
9 |
Fonctionnalisation de surfaces par microstructuration laser / Surfaces functionalization by laser microstructuringHairaye, Camille 16 June 2017 (has links)
Cette thèse porte sur la fonctionnalisation de surface par microstructuration laser. L’étude expérimentale a consisté à texturer des surfaces d’acier inoxydable avec une source laser impulsionnelle à fibre dopée Yb (1030 nm, 300 fs), dans le but de contrôler leur mouillabilité et de les rendre superhydrophobes. Par une optimisation des conditions d’irradiation, il est possible de conférer à la surface une structuration à double échelle de rugosité. Des structures d’une dizaine de micromètres sont réalisées par ablations successives selon un motif de lignes croisées, sur lesquelles se forment des nanostructures auto-organisées. La simulation du couplage de l’énergie dans la cible a permis de déterminer les paramètres opératoires pour limiter l’accumulation thermique en surface. L’étude fait clairement apparaître le rôle de la texturation dans l’apparition du caractère superhydrophobe de la surface, tout en soulignant l’influence des propriétés physico-chimiques du matériau. / This PhD thesis is about surface functionalization by laser microstructuring. The experimental study consists in texturing stainless steel surfaces with a pulsed Yb fibre laser source (1030 nm, 300 fs), in order to control their wettability and confer to them superhydrophobic properties. With an optimization of the irradiating conditions on the target, it is possible to confer to the surface a dual-scale roughness. By successive ablations according to a pattern of crossed lines, microstructures in the range of tens of micrometres are realized, on which self-organized nanostructures are superimposed. Simulation of the energy coupling in the material allows to determine the process parameters to be used, in order to limit the thermal accumulation and avoid the melting of the surface. This study reveals the role of the laser texturing in the apparition of the superhydrophobic character and emphasizes the influence of the physicochemical properties of the material.
|
10 |
Contributions à l’estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion / Contribution to kernel estimation of functionals of the distribution function with applications in economics and managementMadani, Soffana 29 September 2017 (has links)
La répartition des revenus d'une population, la distribution des instants de défaillance d'un matériel et l'évolution des bénéfices des contrats d'assurance vie - étudiées en sciences économiques et de gestion – sont liées a des fonctions continues appartenant à la classe des fonctionnelles de la fonction de répartition. Notre thèse porte sur l'estimation à noyau de fonctionnelles de la fonction de répartition avec applications en sciences économiques et de gestion. Dans le premier chapitre, nous proposons des estimateurs polynomiaux locaux dans le cadre i.i.d. de deux fonctionnelles de la fonction de répartition, notées LF et TF , utiles pour produire des estimateurs lisses de la courbe de Lorenz et du temps total de test normalisé (scaled total time on test transform). La méthode d'estimation est décrite dans Abdous, Berlinet et Hengartner (2003) et nous prouvons le bon comportement asymptotique des estimateurs polynomiaux locaux. Jusqu'alors, Gastwirth (1972) et Barlow et Campo (1975) avaient défini des estimateurs continus par morceaux de la courbe de Lorenz et du temps total de test normalisé, ce qui ne respectait pas la propriété de continuité des courbes initiales. Des illustrations sur données simulées et réelles sont proposées. Le second chapitre a pour but de fournir des estimateurs polynomiaux locaux dans le cadre i.i.d. des dérivées successives des fonctionnelles de la fonction de répartition explorées dans le chapitre précédent. A part l'estimation de la dérivée première de la fonction TF qui se traite à l'aide de l'estimation lisse de la fonction de répartition, la méthode d'estimation employée est l'approximation polynomiale locale des fonctionnelles de la fonction de répartition détaillée dans Berlinet et Thomas-Agnan (2004). Divers types de convergence ainsi que la normalité asymptotique sont obtenus, y compris pour la densité et ses dérivées successives. Des simulations apparaissent et sont commentées. Le point de départ du troisième chapitre est l'estimateur de Parzen-Rosenblatt (Rosenblatt (1956), Parzen (1964)) de la densité. Nous améliorons dans un premier temps le biais de l'estimateur de Parzen-Rosenblatt et de ses dérivées successives à l'aide de noyaux d'ordre supérieur (Berlinet (1993)). Nous démontrons ensuite les nouvelles conditions de normalité asymptotique de ces estimateurs. Enfin, nous construisons une méthode de correction des effets de bord pour les estimateurs des dérivées de la densité, grâce aux dérivées d'ordre supérieur. Le dernier chapitre s'intéresse au taux de hasard, qui contrairement aux deux fonctionnelles de la fonction de répartition traitées dans le premier chapitre, n'est pas un rapport de deux fonctionnelles linéaires de la fonction de répartition. Dans le cadre i.i.d., les estimateurs à noyau du taux de hasard et de ses dérivées successives sont construits à partir des estimateurs à noyau de la densité et ses dérivées successives. La normalité asymptotique des premiers estimateurs est logiquement obtenue à partir de celle des seconds. Nous nous plaçons ensuite dans le modèle à intensité multiplicative, un cadre plus général englobant des données censurées et dépendantes. Nous menons la procédure à terme de Ramlau-Hansen (1983) afin d'obtenir les bonnes propriétés asymptotiques des estimateurs du taux de hasard et de ses dérivées successives puis nous tentons d'appliquer l'approximation polynomiale locale dans ce contexte. Le taux d'accumulation du surplus dans le domaine de la participation aux bénéfices pourra alors être estimé non parametriquement puisqu'il dépend des taux de transition (taux de hasard d'un état vers un autre) d'une chaine de Markov (Ramlau-Hansen (1991), Norberg (1999)) / The income distribution of a population, the distribution of failure times of a system and the evolution of the surplus in with-profit policies - studied in economics and management - are related to continuous functions belonging to the class of functionals of the distribution function. Our thesis covers the kernel estimation of some functionals of the distribution function with applications in economics and management. In the first chapter, we offer local polynomial estimators in the i.i.d. case of two functionals of the distribution function, written LF and TF , which are useful to produce the smooth estimators of the Lorenz curve and the scaled total time on test transform. The estimation method is described in Abdous, Berlinet and Hengartner (2003) and we prove the good asymptotic behavior of the local polynomial estimators. Until now, Gastwirth (1972) and Barlow and Campo (1975) have defined continuous piecewise estimators of the Lorenz curve and the scaled total time on test transform, which do not respect the continuity of the original curves. Illustrations on simulated and real data are given. The second chapter is intended to provide smooth estimators in the i.i.d. case of the derivatives of the two functionals of the distribution function presented in the last chapter. Apart from the estimation of the first derivative of the function TF with a smooth estimation of the distribution function, the estimation method is the local polynomial approximation of functionals of the distribution function detailed in Berlinet and Thomas-Agnan (2004). Various types of convergence and asymptotic normality are obtained, including the probability density function and its derivatives. Simulations appear and are discussed. The starting point of the third chapter is the Parzen-Rosenblatt estimator (Rosenblatt (1956), Parzen (1964)) of the probability density function. We first improve the bias of this estimator and its derivatives by using higher order kernels (Berlinet (1993)). Then we find the modified conditions for the asymptotic normality of these estimators. Finally, we build a method to remove boundary effects of the estimators of the probability density function and its derivatives, thanks to higher order derivatives. We are interested, in this final chapter, in the hazard rate function which, unlike the two functionals of the distribution function explored in the first chapter, is not a fraction of two linear functionals of the distribution function. In the i.i.d. case, kernel estimators of the hazard rate and its derivatives are produced from the kernel estimators of the probability density function and its derivatives. The asymptotic normality of the first estimators is logically obtained from the second ones. Then, we are placed in the multiplicative intensity model, a more general framework including censored and dependent data. We complete the described method in Ramlau-Hansen (1983) to obtain good asymptotic properties of the estimators of the hazard rate and its derivatives and we try to adopt the local polynomial approximation in this context. The surplus rate in with-profit policies will be nonparametrically estimated as its mathematical expression depends on transition rates (hazard rates from one state to another) in a Markov chain (Ramlau-Hansen (1991), Norberg (1999))
|
Page generated in 0.061 seconds