• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 381
  • 152
  • 50
  • Tagged with
  • 570
  • 272
  • 136
  • 126
  • 123
  • 96
  • 94
  • 88
  • 74
  • 49
  • 45
  • 44
  • 43
  • 42
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Impacts du biais de négligence des corrélations sur la qualité d'une décision de portefeuille : études auprès d'un groupe de planificateurs financiers agréés

Amiot, Gabriel 02 February 2024 (has links)
La présente recherche s’intéresse à la négligence des corrélations en contexte d’investissement. À l’aide d’un questionnaire réalisé auprès de 88 planificateurs financiers agréés (Pl. Fin.) en collaboration avec l’Institut québécois de la planification financière (IQPF), nos résultats suggèrent que le décideur moyen utilise plutôt le profil de tolérance au risque d’un client fictif afin d’orienter sa prise de décision (motif principal préféré par 60% des répondants). Entre deux fonds d’investissement à rendements égaux, nous constatons une tendance modale de l’individu à conseiller le fond présentant la plus petite variance individuelle indépendamment de sa corrélation. Non seulement le sujet représentatif ne favorise pas une mesure du risque agrégée basée sur le portefeuille global de son client (i.e., variance de portefeuille), mais celui-ci ne semble pas non plus concevoir l’existence d’une alternative moins risquée dans un contexte systémique. À partir de six formats de présentation différents dans un design inter-sujet, nos résultats suggèrent également qu’une surcharge d’information nuit à l’attention limitée du participant et exacerbe sa propension à intégrer l’information telle que vue et présentée (heuristique de valeur nominale). / This research seeks to highlight the underlying mechanisms that might cause correlation neglect among a group of financial experts in an investment context. Via an experimental questionnaire administered to 88 financial planners, we ask what would be their advice to twelve fictitious clients who wish to invest in a new fund according to a fixed set of information (six frames, between-subjects design). The planner had to consider the previously owned fund “to give an optimal advice that maximizes the portfolio diversification”. Between two alternative funds to invest with equal average returns, our results suggest that the representative expert emphasizes mainly the client’s risk tolerance profile to make a selection (first motive designated by 60% of subjects). We thus identify a pattern from which the modal subject recommend the low (high) individual variance fund with low (high) risk tolerance profile of a client. This observed behaviour not only neglects to account for the full portfolio variance, which depends crucially on the correlation between the funds, but also suggests a difficulty to conceptualize the impacts of aggregating two or more assets in the same system. We suggest that our results may be explained by a “face-value” heuristic hypothesis that posits that the subject neglects to consider the underlying generating process of the final outputs showed display and that this is exacerbated by an information overload when present.
132

Études des fonctions de corrélation en théorie conforme des champs : transformation intégrale du développement en produit d'opérateurs

Bélanger, Mathieu 05 April 2024 (has links)
Les fonctions de corrélation en théorie conforme des champs peuvent être décrites par un développement en produit d'opérateurs. Celui-ci contient l'entièreté des informations nécessaires pour caractériser ces théories. Ceci a donné naissance aux équations de type bootstrap. Quelques résultats numériques ont démontré l'ecacité de cette méthode, mais aucun résultat théorique n'est en mesure de valider ceux-ci. De récents résultats ont permis d'inverser les développements en produit d'opérateurs an d'obtenir une forme analytique des données conformes. Ces relations nécessitent toutefois la forme complète des fonctions de corrélation. Celles-ci ne sont généralement pas connues ce qui rend ces relations peu utiles. Nous proposons ici une transformation intégrale du développement en produit d'opérateurs utilisant les relations d'inversion. Cette relation permet d'obtenir une forme reliant les données conformes des différents canaux. Dans le cas de quatre champs scalaires identiques, cette relation peut être utilisée en récurrence en deux et quatre dimensions. Ceci pourrait permettre de valider les résultats connus en plus de prédire de nouveaux modèles. / Correlation functions in conformal eld theory can be expressed with the help of the operator product expansion. The latter contains all the necessary information to characterize those theories. This expansion has given rise to the bootstrap equations. The bootstrap program has led to interesting numerical results but analytic equivalents have yet to be found. Some recent results introduced the inversion formula to the operator product expansion which allows one to nd the conformal data for the correlation function. Those relations need the complete form of the correlation function which are not usually known. This renders those inversion formulas hard to use for the bootstrap program. Here, we propose an integral transformation of the operator product expansion that uses the inversion formula. This gives us a way to relate the conformal data of the different crossing symmetry channels. In the case of four identical scalar elds, this relation can be used as a recurrence relation in two and four dimensions. This might validate known results and also nd some new systems.
133

Stratégie de couplage expérimentation/modélisation dans les matériaux hétérogènes. Identification de propriétés mécaniques locales / Experimentation/modelisation coupling strategies in heterogeneous materials. Identification of local elastic mechanical properties.

Pétureau, Louis 07 December 2018 (has links)
Le développement de méthodes d’identification de paramètres de lois de comportement de matériaux est devenu primordial pour avoir accès à la connaissance complète du comportement. En effet, les méthodes de mesure optiques, comme la Corrélation d’Images Numériques, permettent d’obtenir les quantités cinématiques de la relation de comportement sous forme de champs de vecteurs. En revanche, les contraintes ne sont généralement pas mesurables et il est nécessaire d’identifier les paramètres de la loi de comportement du matériau considéré pour y avoir accès. Plusieurs méthodes ont vu le jour et permettent de répondre à cette problématique mais la plupart d’entre elles supposent une homogénéité du matériau. Ce mémoire traite de l’application de certaines de ces méthodes, notamment la méthode de l’écart à l’équilibre (MEQ) et la méthode de recalage de modèle éléments finis (MREF), dans des matériaux hétérogènes à microstructure complexe où les propriétés mécaniques évoluent spatialement dans le volume. L’objectif est d’identifier ces propriétés mécaniques locales qui régissent la cinématique mesurée de tels matériaux dans le cadre de l’élasticité linéaire isotrope. Dans un premier temps, les deux méthodes citées sont décrites, implémentées et comparées sur des cas simulés en 2D. La MREF est préférée à la MEQ car plus robuste vis-à-vis des incertitudes de mesure. Basée sur un formalisme itératif, une parallélisation de l’algorithme a été opérée pour diminuer le coût en temps de la méthode. Des expérimentations dans le plan sur des éprouvettes en polyuréthane où les hétérogénéités sont maîtrisées ont permis de valider la méthode. Enfin, deux applications en 3D sur un matériau en mousse polyuréthane et un composite à base de fibres de bois démontrent l’intérêt d’une telle méthode pour l’identification de propriétés mécaniques locales. La mise en évidence d’une relation entre les propriétés locales identifiées et les propriétés locales de la microstructure de ces matériaux est effectuée. / The development of identification methods of material constitutive equation parameters has become fundamental to completely know the mechanical behavior. Indeed, optical methods, such as Digital Image Correlation, allows to get kinematics quantities of the constitutive equation as vectors fields. But, stresses are usually not available experimentally and one has to identify constitutive equation parameters to compute them. Several methods have been developed and answer to that problematic but most of them suppose the materials as homogeneous. This memoir is about the application of some of these methods, such as the equilibrium gap method (EGM) and the finite element model updating method (FEMU), in the case of heterogeneous materials with complex structures where mechanical properties vary spatially in the volume. The objective is to identify these local mechanical properties which rule the measured kinematics of such materials considering the isotropic linear elasticity. Firstly, both methods are detailed, implemented and compared on 2D simulated cases. The FEMU method is preferred because it is more robust in the presence of noisy data. Based on an iterative process, a parallelisation of the algorithm is achieved in order to reduce the cost of the method. In-plane experiments on polyurethane samples where heterogeneities are controlled have validated the method. Finally, two 3D applications on a polyurethane foam material and a wood-based fibrous composite have demonstrated the interest of this approach to identify local mechanical properties. The highlighting of a relationship between identified local properties and microstructural properties of these materials is made.
134

Etude théorique et expérimentale des corrélations temporelles entre photons de fluorescence effet d'une sélection en fréquence.

Dalibard, Jean 31 March 1981 (has links) (PDF)
Etude du signal de corrélations temporelles entre photons émis dans les bandes latérales du triplet de fluorescence. Ce signal constitue une analyse mixte de la lumière de fluorescence puisqu'il concerne a la fois ses caractéristiques spectrales et temporelles. Etude théorique de cet effet: le calcul perturbatif du champ diffuse par l'atome et la méthode utilisant les équations de bloch ont permis d'interpréter l'effet mis en évidence expérimentalement. Une autre approche théorique présentée est la méthode de l'atome habille.
135

Formage incrémental de tôle d'aluminium : étude du procédé à l'aide de la mesure de champs et identification de modèles de comportement

Decultot, Nicolas 10 December 2009 (has links) (PDF)
Ce travail est consacré à l'étude du procédé de formage incrémental simple point (Single Point Incremental Forming, SPIF). Ce nouveau procédé de mise en forme de tôles à froid est surtout utilisé pour le prototypage et la réalisation de petites séries. Son principe est basé sur le repoussage local de la matière par un poinçon de petite taille devant les dimensions de la tôle et contrôlé en déplacement. Dans un premier temps, un pilote de SPIF équipé d'un capteur de forces tri-axes et d'un banc multi-caméras permettant l'utilisation de la mesure de champs par stéréo-corrélation a été développé au laboratoire. Au moyen de celui-ci, une étude paramétrique du procédé SPIF concernant entre autre la formabilité et l'emboutissabilité de tôles d'alliage d'aluminium a été tout d'abord réalisée. Ensuite, plusieurs méthodes d'identification ont été mises en œuvre afin d'identifier les paramètres de critères de plasticité (Hill48, Hill90 et Barlat) et de lois d'écrouissage isotrope permettant de modéliser le comportement élastoplastique anisotrope des tôles étudiées. La méthode d'identification à partir de mesures de champs par recalage de modèle Eléments-Finis a notamment été développée. Enfin, à partir des modèles identifiés, une simulation éléments finis d'une trajectoire simple en formage incrémental a été réalisée, ces résultats sont comparés avec des résultats expérimentaux.
136

On the use of non-orthogonal partition correlation functions in atomic physics: theory and applications / Sur l'utilisation de fonctions de corrélation spécifiques non-orthogonales en physique atomique: théorie et applications

Verdebout, Simon 26 October 2012 (has links)
Our thesis tackles the many-electronic problem considering a non-relativistic and a relativistic orbital approach. Using the suites of programs ATSP and GRASP, we are able to approximate many-electron wave functions beyond the independent particle model by considering a superposition of CSFs. The optimization process, based on the variational principle, provides the best possible mixing coefficients fixing the linear combination of CSFs and spin-orbital basis on which we impose the orthonormality condition between functions of the same l or kappa subspace. Using this conventional approach within the relativistic framework, we estimate different properties of the triply ionized antimony atom (Sb IV), namely transition energies, transition probabilities, isotope shifts and a hyperfine-induced transition.<p><p>In the aim of partially relaxing the orthogonality constraints between correlation orbitals, we use the variational principle for targeting specific correlation effects by tailoring the configuration space. Independent sets of correlation orbitals, embedded in PCF, are produced from MCHF calculations. These non-orthogonal functions span CSF spaces that are coupled to each other by solving the associated generalized eigenvalue problem. The Hamiltonian and overlap matrix elements are evaluated using the biorthonormal orbital transformations and the efficient counter-transformations of the configuration interaction eigenvectors. This original method is successfully applied for describing different light atomic systems such as Li I, Be I, B I, C II and Ne I. An unwanted effect, called the ``constraint effect', is described and studied for these particular atomic systems. Even if this constraint can be completely relaxed through the DPCFI method, the computational resources required by such an approach lead us to study some simple strategies relaxing partially this constraint. This study takes it place in the context of neutral beryllium for which we test two particular strategies: one based on a weight criterion and one based on the type of excitations. Before concluding, we expose some developments combining the SCF process and the biorthonormal condition to relax the orthogonality constraints that are presently applied to the optimization process of the spin-orbital basis.<p>/<p>Dans notre thèse, nous abordons le problème polyélectronique dans un contexte non-relativiste et relativiste en adoptant une approche orbitalaire. En utilisant les suites de programmes reconnues ATSP et GRASP, nous sommes aptes à approcher des fonctions d'ondes polyélectroniques au-delà du modèle des particules indépendantes en utilisant une superposition de CSFs. Le processus d'optimisation, basé sur le principe des variations, fournit la meilleure estimation possible des coefficients de mélange, fixant la combinaison linéaire de CSFs et la meilleure base de spin-orbitales sur laquelle on impose la condition d'orthonormalité entre les fonctions appartenant au même sous-espace l ou kappa. En adoptant cette approche dans un cadre relativiste, nous évaluons des énergies de transition, des probabilités de transition, des déplacements isotopiques ainsi qu'une transition induite par mélange hyperfin pour l'atome d'antimoine trois fois ionisé (Sb IV).<p><p>Dans le but de relâcher partiellement les contraintes d'orthogonalité entre les orbitales de corrélation, nous utilisons le principe des variations afin de cibler des effets précis de la corrélation en taillant l'espace des configurations. Les ensembles indépendants d'orbitales de corrélation sont obtenus via la méthode MCHF. Les espaces de CSFs, exprimés sur ces fonctions mono-électronique non-orthogonales, sont couplés en résolvant le problème aux valeurs propres généralisé associé. Les matrices Hamiltonienne et de recouvrement sont déterminées au moyen de la technique des transformations biorthonormales et de la contre-transformation des vecteurs propres associés. Cette méthode originale est utilisée avec succès pour décrire des systèmes atomiques légers comme Li I, Be I, B I, C II et Ne I. Un effet indésirable, appelé ``effet de contrainte', est déecrit et étudié pour ces derniers systèmes atomiques. Même si ces contraintes peuvent-être en principe totalement levées au travers de la méthode DPCFI, les ressources nécessaires à l'application de cette dernière approche nous ont conduit à la recherche de stratégies simples et efficaces autorisant leur levée partielle. Pour ce faire, dans le cadre de nos calculs réalisés sur l'atome de béryllium, nous avons envisagé deux stratégies particulières: l'une basée sur les coefficients de mélange et l'autre basée sur le type d'excitation. Avant de conclure, nous proposons quelques développements combinant le processus auto-cohérent et la condition de biorthonormalité dans le but de relâcher les contraintes d'orthogonalité appliquées lors du processus d'optimisation de la base de spin-orbitales. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
137

Utilisation de l’apprentissage automatique pour approximer l’énergie d’échange-corrélation

Cuierrier, Étienne 01 1900 (has links)
Le sujet de cette thèse est le développement de nouvelles approximations à l’énergie d’échange-corrélation (XC) en théorie de la fonctionnelle de la densité (DFT). La DFT calcule l’énergie électronique d’une molécule à partir de la densité électronique, une quantité qui est considérablement plus simple que la fonction d’onde. Cette théorie a été développée durant les années 1960 et elle est devenue la méthode de choix en chimie quantique depuis 1990, grâce à un ratio coût/précision très favorable. En pratique, la DFT est utilisée par les chercheurs et l’industrie pour prédire des spectres infrarouges, la longueur des liens chimiques, les barrières d’activation, etc. Selon l’approche Kohn-Sham, seulement le terme de l’énergie XC est inconnu et doit être approximé. Les chapitres de ce texte sont des articles consacrés au développement d’approches non locales et à l’utilisation de l’apprentissage automatique pour améliorer la précision et/ou la rapidité des calculs de l’énergie XC. Le premier article de cette thèse concerne le développement d’approximations non locales au trou XC [Cuierrier, Roy, et Ernzerhof, JCP (2021)]. Notre groupe de recherche a précédemment développé la méthode du facteur de corrélation (CFX) [Pavlíková Přecechtělová, Bahmann, Kaupp, et Ernzerhof, JCP (2015)] et malgré les résultats supérieurs de CFX comparativement aux fonctionnelles courantes en DFT pour le calcul de l’énergie, cette approche n’est pas exacte pour les systèmes uniélectroniques. Les méthodes non locales telles que le facteur X [Antaya, Zhou, et Ernzerhof, PRA (2014)] corrigent ce problème. Ainsi, le but du projet du premier article est de combiner CFX avec le facteur X, afin de former un facteur XC exact pour l’atome d’hydrogène, tout en conservant les bonnes prédictions de CFX pour les molécules. Nos résultats montrent que notre modèle non local est exact pour les systèmes uniélectroniques, cependant, la densité électronique non locale a un comportement fortement oscillatoire qui rend difficile la construction du facteur XC et la qualité de ses prédictions pour les propriétés moléculaires est inférieure aux fonctionnelles hybrides. Notre étude permet de fournir une explication concernant l’échec des méthodes non locales en chimie, comme l’approximation de la densité pondérée [Gunnarsson, Jonson, et Lundqvist, PLA (1976)]. Les nombreuses oscillations de la densité non locale limitent la performance des facteurs XC qui sont trop simples et qui ne peuvent pas atténuer ces oscillations. vLe sujet du deuxième article de cette thèse [Cuierrier, Roy et Ernzerhof, JCP (2021)] est relié aux difficultés rencontrées durant le premier projet. L’apprentissage automatique (ML) est devenu une méthode populaire dans tous les domaines de la science. Les réseaux de neurones artificiels (NN) sont particulièrement puissants, puisqu’ils permettent un contrôle et une flexibilité considérables lors de la construction de fonctions approximatives. Ainsi, nous utilisons un NN pour modéliser le trou X à partir de contraintes physiques. Durant le premier projet de cette thèse, nous avons observé qu’une fonction mathématique simple n’est pas adaptée pour être combinée avec la densité non locale, les NN pourraient donc être un outil utile pour approximer un trou X. Néanmoins, ce chapitre s’intéresse à la densité locale, avant de s’attaquer à la non-localité. Les résultats que nous avons obtenus lors du calcul des énergies X des atomes montrent le potentiel des NN pour construire automatiquement des modèles du trou X. Une deuxième partie de l’article suggère qu’un NN permet d’ajouter d’autres contraintes à des approximations du trou X déjà existantes, ce qui serait utile pour améliorer CFX. Sans les NN, il est difficile de trouver une équation analytique pour accomplir cette tâche. L’utilisation du ML est encore récente en DFT, mais ce projet a contribué à montrer que les NN ont beaucoup d’avenir dans le domaine de la construction de trou XC. Finalement, le dernier chapitre concerne un projet [Cuierrier, Roy, Wang, et Ernzerhof, JCP (2022)] qui utilise aussi des NN en DFT. Des travaux précédents du groupe ont montré que le terme de quatrième ordre du développement en série de puissances de la distance interélectronique du trou X (Tσ (r)) [Wang, Zhou, et Ernzerhof, PRA (2017)] est un ingrédient utile pour améliorer les approximations du calcul de l’énergie X pour les molécules. Cependant, il n’a pas été possible de construire un modèle qui satisfait le deuxième et le quatrième terme du développement en série de puissances simultanément. Ainsi, avec l’expertise développée en apprentissage automatique lors du deuxième projet, le but de l’étude du troisième article est d’utiliser Tσ (r) comme une variable d’entrée à un NN qui approxime l’énergie X. Nous avons montré qu’en utilisant comme ingrédients la fonctionnelle de PBE, Tσ (r) et un NN, il est possible de s’approcher de la qualité des résultats d’une fonctionnelle hybride (PBEh) pour le calcul d’énergies d’atomisation, de barrières d’activation et de prédiction de la densité électronique. Cette étude démontre que Tσ (r) contient de l’information utile pour le développement de nouvelles fonctionnelles en DFT. Tσ (r) est en principe plus rapide à calculer que l’échange exact, donc nos fonctionnelles pourraient s’approcher de l’exactitude d’une fonctionnelle hybride, tout en étant plus rapides à calculer. / The subject of this thesis is the development of new approximations for the exchange- correlation (XC) energy in Density Functional Theory (DFT). DFT calculates the electronic energy from the electronic density, which is a considerably simpler quantity than the wave function. DFT was developed during the 1960s and became the most popular method in quantum chemistry during the 1990s, thanks to its favourable cost/precision ratio. In practice, DFT is used by scientists and the industry to predict infrared spectra, bond lengths, activation energies, etc. The Kohn-Sham approach in DFT is by far the most popular, since it is exact in theory and only the XC functional has to be be approximated. The exact form of the XC functional is unknown, thus the development of new approximations for the XC functional is an important field of theoretical chemistry. In this thesis, we will describe the development of new non-local methods and the use of machine learning to improve the prediction and the efficiency of the calculation of XC energy. The first article in this thesis [Cuierrier, Roy, and Ernzerhof, JCP (2021)] is about the development of non-local approximations of the XC hole. Our research group previously developed the correlation factor approach (CFX) [Pavlíková Přecechtělová, Bahmann, Kaupp, and Ernzerhof, JCP (2015)]. The prediction of CFX for molecular properties compares favourably to other common functionals. However, CFX suffers from one-electron self-interaction error (SIE). Non-local models such as the X factor [Antaya, Zhou, and Ernzerhof, PRA (2014)] can fix the SIE, thus the goal of this project is to combine CFX with the X factor to build a non-local XC factor. We show that our method is exact for one-electron systems, however, our simple XC factor is not appropriate for the oscillatory behaviour of the non-local density and the results for molecules are inferior when compared to hybrid functionals. Our study provides an explanation of why non-local models, such as the weighted density approximation [Gunnarsson, Jonson, and Lundqvist, PLA (1976)], are not as successful as the common DFT functionals (PBE, B3LYP, etc.) in chemistry. The non-local electronic density is an elaborate function and often has a large number of local minima and maxima. The development of functionals using simple XC factors does not lead to satisfying results for the prediction of molecular energies. Therefore, a sophisticated XC factor that could attenuate the oscillatory shape of the non-local density is required. viiThe second article [Cuierrier, Roy, and Ernzerhof, JCP(2021)] addresses the difficulties observed for the development of non-local functionals during the first project. Machine learning (ML) is a useful technique that is gaining popularity in many fields of science, including DFT. Neural networks (NN) are particularly powerful, since their structure allows considerable flexibility to approximate functions. Thus, in this chapter, we use a NN to approximate the X hole by considering many of its known physical and mathematical constraints during the training of the NN. The results we obtain, for the calculation of energies of atoms using the NN, reveal the potential of this method for the automation of the construction of X holes. The second part of the paper shows that an NN can be used to add more constraints to an existing X hole approximation, which would be quite useful to improve CFX. The X hole obtained for a stretched H2 molecule is promising when compared to the exact values. ML is still a new tool in DFT and our work shows that it has considerable potential for the construction of XC hole approximations. Finally, the last chapter [Cuierrier, Roy, Wang, and Ernzerhof, JCP (2022)] describes a project that also uses NN. In a previous work by our group, it is shown that the fourth-order term of the expansion of the X hole (Tσ (r)) could improve the calculation of the X energy for molecules [Wang, Zhou, and Ernzerhof, PRA (2017)]. However, developing an equation that satisfies both the second and fourth-order terms simultaneously proved difficult. Thus, using the expertise in ML we developed during the second project, we build a new NN that uses the fourth-order term of the expansion of the X hole as a new ingredient to approximate the XC energy. Starting from the PBE functional, we trained a NN to reproduce the X energy of the hybrid functional PBEh. Our results show that this approach is a considerable improvement compared to PBE for the calculation of atomization energies, barrier heights and the prediction of electronic density. This study confirms that the fourth-order term of the expansion of the X hole does include useful information to build functionals in DFT. Since the calculation of the fourth-order term has a more favourable computational scaling compared to the exact exchange energy, our new functionals could lead to faster calculations in DFT.
138

Absorption à deux photons et effets de corrélation quantique dans les semiconducteurs

Boitier, Fabien 01 March 2011 (has links) (PDF)
Les corrélations de photons sont à la base d'un certain nombre d'expériences et d'applications (spectroscopie de corrélation de photons, profilométrie haute résolution, cryptographie quantique, téléportation). L'évaluation de ces propriétés de corrélation revêt dès lors une importance toute particulière et correspond à la thématique dans laquelle s'inscrit ce travail de thèse de Doctorat. Tout d'abord, les concepts de compteur de photons par absorption à deux photons ont été (ré)évalués expérimentalement dans différents semiconducteurs et nous ont conduits à établir les bases d'un modèle quantique du comptage à deux photons. Par la suite, l'absorption à deux photons dans les semiconducteurs est appliquée dans une nouvelle technique qui permet la mesure du degré de cohérence d'ordre deux de sources optiques continues de faibles puissances (0,1 µW au minimum) avec une bande passante allant de 1,1 à 1,7 µm et une résolution de l'ordre de la femtoseconde. Expérimentalement, le montage est conceptuellement proche d'un interféromètre de Hanbury Brown et Twiss où, dans notre cas, les deux sous-faisceaux décalés dans le temps sont recombinés sur un compteur à deux photons. Grâce à la très large bande passante à deux photons, les corrélations de sources larges spectralement sont caractérisées au moyen de ce montage qui permet la mesure du degré de cohérence d'ordre deux de sources chaotiques aussi bien que d'un générateur paramétrique à la dégénérescence ou hors de la dégénérescence. Pour la première fois, le phénomène de bunching des photons issus d'un corps noir a été vérifié par une mesure directe. Pour ce qui est de la lumière paramétrique, après avoir développé une source de photons jumeaux, nous avons démontré que notre montage expérimental était à même de mesurer les coïncidences exactes des photons issus d'une même paire aussi bien que les coïncidences accidentelles entre photons de paires différentes en contrôlant les phénomènes de dispersion chromatiques à l'aide d'une paire de prismes. Enfin, deux modèles théoriques originaux de corrélation de photons jumeaux ont été développés, basées sur les approches quantique et classique, et sont en excellent accord avec l'ensemble de nos résultats expérimentaux.
139

Contribution à l'évaluation de l'équilibre quasi-statique à l'aide d'une plate-forme de force

Lafond, Danik January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
140

Contribution à la définition, à l'optimisation et à l'implantation d'IP de traitement du signal et des données en temps réel sur des cibles programmables / Contribution to the definition, optimization and implementation of signal processing IPs on programmable target

Ouerhani, Yousri 16 November 2012 (has links)
En dépit du succès que les implantations optiques des applications de traitement d'images ont connu, le traitement optique de l'information suscite aujourd'hui moins d'intérêt que dans les années 80-90. Ceci est dû à l'encombrement des réalisations optiques, la qualité des images traitées et le coût des composants optiques. De plus, les réalisations optiques ont eu du mal à s’affranchir de l’avènement des circuits numériques. C’est dans ce cadre que s’inscrivent les travaux de cette thèse dont l’objectif est de proposer une implantation numérique des méthodes optiques de traitement d’images. Pour réaliser cette implantation nous avons choisi d’utiliser les FPGA et les GPU grâce aux bonnes performances de ces circuits en termes de rapidité. En outre, pour améliorer la productivité nous nous sommes focalisés à la réutilisation des blocs préconçus ou IP « Intellectual Properties ». Malgré que les IP commerciales existantes soient optimisées, ces dernières sont souvent payantes et dépendent de la famille de la carte utilisée. La première contribution est de proposer une implantation optimisée des IP pour le calcul de la transformée de Fourier FFT et de la DCT. En effet, le choix de ces deux transformations est justifié par l'utilisation massive de ces deux transformées (FFT et DCT), dans les algorithmes de reconnaissance de formes et de compression, respectivement. La deuxième contribution est de valider le fonctionnement des IP proposées par un banc de test et de mesure. Enfin, la troisième contribution est de concevoir sur FPGA et GPU des implantations numériques des applications de reconnaissance de formes et de compression. Un des résultats probant obtenu dans cette thèse consiste à avoir une rapidité de l’IP FFT proposée 3 fois meilleure que celle de l’IP FFT Xilinx et de pouvoir réaliser 4700 corrélations par seconde. / The main objective of this thesis is to realize a numerical implementation of optical methods of image and signal processing. To achieve this end, we opted to use FPGA (Field Programmable Gate Array) and GPU (Graphical Processing Unit) devices. This choice is justified by their high performance in terms of speed. In addition, to improve productivity, we focused on the reuse of predesigned blocks or "Intellectual Properties" IP. While existing commercial IP are optimized, they are often paid and highly dependent on the card. The first contribution is to provide an optimized IP for Fourier transform (FFT) and the cosine transform (DCT) computing. Indeed, the choice of these two transformations is justified by the widespread use of these two transforms (FFT and DCT), particularly in pattern recognition and compression algorithms. The second contribution is to validate the operation of the proposed IP using a bench test. The last contribution is to implement on FPGA and GPU applications for pattern recognition and compression. One of the convincing results obtained in this thesis is to propose an IP for FFT computing three times faster than Xilinx IP and thus to achieve 4700 correlations per second.

Page generated in 0.0704 seconds