Spelling suggestions: "subject:"contrainte"" "subject:"contraintes""
1 |
Les entrepreneurs par nécessité : d’une dichotomie simplificatrice à un continuum complexe : définitions et typologie des entrepreneurs par nécessité : étude de la dimension effectuale des processus de création par nécessité / Necessity entrepreneurs : from an oversimplifying dichotomy to a complex continuumTessier Dargent, Christel 13 July 2015 (has links)
Les entrepreneurs par nécessité créent une entreprise car ils ne perçoivent pas d'alternative valable d'emploi. Ils font l'objet de nombreux travaux de recherche depuis le début des années 2000, qui orientent des politiques publiques spécifiques à l'égard de cette catégorie d'entrepreneurs, en particulier en période de crise économique. Ils sont opposés, dans une dichotomie communément acceptée par la communauté de recherche, aux entrepreneurs par opportunité, poursuivant eux de lucratives opportunités d'affaires. La première partie de ce travail doctoral retrace l'émergence du concept d'entrepreneuriat de nécessité, puis une seconde partie synthétise, après une étude exhaustive de la bibliographie, les apports de la littérature dans ce champ. Une attention particulière est portée à la multiplicité des définitions. Nous démontrons dans une troisième partie que le terme d'entrepreneuriat de nécessité, largement répandu, n'est pas un concept d'identification solide, car ses significations se diluent dans l'espace et se morcellent selon les contextes individuels et socio-économiques. Le quatrième volet de cet exposé propose une typologie, issue de la littérature, en huit catégories d'entrepreneurs par nécessité, pour illustrer la variété des profils. Une étude quantitative exploratoire sur un échantillon de mille entrepreneurs permet d'apporter une première validation à cette typologie et de mesurer le poids des différentes catégories. Ce travail permet également de construire une grille d'analyse du degré de criticité de la nécessité entrepreneuriale, en développant une liste de l'ensemble des facteurs contraignants, internes ou exogènes, modifiables ou non, poussant l'individu à devenir créateur d'entreprise. Dans un objectif d'accompagnement des entrepreneurs par nécessité, afin d'en accroître la résilience, voire la réussite, la dernière partie de la recherche étudie, par la méthode biographique, les processus entrepreneuriaux, dans le cadre de la théorie de l'effectuation. Ce volet met en lumière les obstacles propres à la création d'entreprise par nécessité, en particulier la difficulté à mobiliser des ressources et un réseau de parties prenantes. Il souligne aussi le recours spontané et par défaut des entrepreneurs par nécessité aux principes de l'effectuation. Il s'interroge enfin sur les limites de la théorie de l'effectuation : ces principes sont démontrés par des entrepreneurs experts, mais leur application par des entrepreneurs par nécessité n'implique pas le succès de l'entreprise. Nos travaux concluent cependant à l'intérêt d'enseigner ces principes, pour renforcer la confiance en soi des entrepreneurs par nécessité. / Necessity entrepreneurs create ventures since they perceive they can find no other suitable work. The number of research articles on the subject has skyrocketed in the 2000s. Some of these papers influence the public policies worldwide, aiming at reducing unemployment by stimulating entrepreneurship, especially at a time of economic crisis. Necessity entrepreneurs are opposed to opportunity entrepreneurs, who pursue profitable market opportunities, in a commonly accepted dichotomy. First part of our doctoral dissertation presents how the « necessity entrepreneurship » concept developed. A second chapter summarizes the current global state of knowledge on necessity entrepreneurship, based on a thorough literature review. Particular focus is placed on the wide range of definitions. In a third part, we demonstrate that the « necessity entrepreneurship » category is not a reliable one. Although widely found in research papers, it is not a solid concept to identify entrepreneurs : its meanings vary according to regions, individuals, social and economic contexts. Fourth chapter of this work proposes a typology of necessity entrepreneurs to illustrate in eight categories the various profiles encountered in the literature. A quantitative exploratory study based on a sample of 1000 French entrepreneurs offers a first validation tool for the typology and gives percentages of entrepreneurs per profile. An operational list of all necessity factors, internal or external, unchangeable or modifiable, has then been developed to measure a degree of criticality and assign a score to necessity entrepreneurs. In order to improve the mentoring of necessity entrepreneurs, to develop their resilience and venture's success, last part of this paper is devoted to an in-depth analysis of necessity entrepreneurial processes. Therefore we used the biographical method in the framework of the effectuation theory. Specific issues and barriers related to necessity entrepreneurial venture set up have been identified, especially concerning resources gathering, funding and stakeholders' involvement. It appears necessity entrepreneurs resort to effectuation spontaneously and by default. However, although effectual principals have been developed based on expert entrepreneurs, it seems that applied by necessity entrepreneurs, they are no guaranty of success at all. As a conclusion, we demonstrate that teaching effectuation should however structure necessity entrepreneurial processes in a straightforward manner, in order to increase self-confidence and self-esteem of necessity entrepreneurs.
|
2 |
L'ajustement de faisceaux contraint comme cadre d'unification des méthodes de localisation : application à la réalité augmentée sur des objets 3DTamaazousti, Mohamed 13 March 2013 (has links) (PDF)
Les travaux réalisés au cours de cette thèse s'inscrivent dans la problématique de localisation en temps réel d'une caméra par vision monoculaire. Dans la littérature, il existe différentes méthodes qui peuvent être classées en trois catégories. La première catégorie de méthodes considère une caméra évoluant dans un environnement complètement inconnu (SLAM). Cette méthode réalise une reconstruction enligne de primitives observées dans des images d'une séquence vidéo et utilise cette reconstruction pour localiser la caméra. Les deux autres permettent une localisation par rapport à un objet 3D de la scène en s'appuyant sur la connaissance, a priori, d'un modèle de cet objet (suivi basé modèle). L'une utilise uniquement l'information du modèle 3D de l'objet pour localiser la caméra, l'autre peut être considérée comme l'intermédiaire entre le SLAM et le suivi basé modèle. Cette dernière méthode consiste à localiser une caméra par rapport à un objet en utilisant, d'une part, le modèle de ce dernier et d'autre part, une reconstruction en ligne des primitives de l'objet d'intérêt. Cette reconstruction peut être assimilée à une mise à jour du modèle initial (suivi basé modèle avec mise à jour). Chacune de ces méthodes possède des avantages et des inconvénients. Dans le cadre de ces travaux de thèse, nous proposons une solution unifiant l'ensemble de ces méthodes de localisation dans un unique cadre désigné sous le terme de SLAM contraint. Cette solution, qui unifie ces différentes méthodes, permet de tirer profit de leurs avantages tout en limitant leurs inconvénients respectifs. En particulier, nous considérons que la caméra évolue dans un environnement partiellement connu, c'est-à-dire pour lequel un modèle (géométrique ou photométrique) 3D d'un objet statique de la scène est disponible. L'objectif est alors d'estimer de manière précise la pose de la caméra par rapport à cet objet 3D. L'information absolue issue du modèle 3D de l'objet d'intérêt est utilisée pour améliorer la localisation de type SLAM en incluant cette information additionnelle directement dans le processus d'ajustement de faisceaux. Afin de pouvoir gérer un large panel d'objets 3D et de scènes, plusieurs types de contraintes sont proposées dans ce mémoire. Ces différentes contraintes sont regroupées en deux approches. La première permet d'unifier les méthodes SLAM et de suivi basé modèle, en contraignant le déplacement de la caméra via la projection de primitives existantes extraites du modèle 3D dans les images. La seconde unifie les méthodes SLAM et de suivi basé modèle avec mise à jour en contraignant les primitives reconstruites par le SLAM à appartenir à la surface du modèle (unification SLAM et mise à jour du modèle). Les avantages de ces différents ajustements de faisceaux contraints, en terme de précision, de stabilité de recalage et de robustesse aux occultations, sont démontrés sur un grand nombre de données de synthèse et de données réelles. Des applications temps réel de réalité augmentée sont également présentées sur différents types d'objets 3D. Ces travaux ont fait l'objet de 4 publications internationales, de 2 publications nationales et d'un dépôt de brevet.
|
3 |
Etude théorique de nanodispositifs électroniques et thermoélectriques à base de jonctions contraintes de graphène / Theoretical study of electronic and thermoelectric nanodevicesbased on strained graphene junctionsNguyen, Mai Chung 02 December 2016 (has links)
De par ses extraordinaires propriétés physiques, on s'attend à ce que le graphène devienne un matériau de nouvelle génération, susceptible de compléter les semi-conducteurs traditionnels dans les technologies de dispositifs électroniques. Depuis sa découverte expérimentale en 2004, de nombreux travaux ont cherché à en évaluer les potentialités. Toutefois, en vue d'applications en électronique, le graphène souffre d'un inconvénient majeur : l'absence de bande interdite dans sa structure de bandes. Ainsi, il est très difficile de moduler et couper le courant dans un transistor de graphène, ce qui restreint considérablement son champ d'applications. Du point de vue des propriétés thermoélectriques, l'absence de bande interdite empêche la séparation des contributions opposées des électrons et des trous au coefficient Seebeck, qui reste donc faible dans le graphène parfait. Aussi, l'ouverture d'une bande interdite (gap) dans le graphène est une nécessité pour contourner les inconvénients de ce matériau et bénéficier pleinement de ses excellentes propriétés de conduction. Il a été montré que de nombreuses approches de nanostructuration peuvent être utilisées dans ce but : découpage de nanorubans de graphène, bicouche de graphène avec application d'un champ électrique transverse, percement d'un réseau périodique de nano-trous (nanomesh), structures mixtes de graphène et de nitrure de bore, dopage du graphène à l'azote. Cependant, toutes ces approches ont leurs propres difficultés de fabrication et/ou restent encore à confirmer expérimentalement. Dans ce travail, je me suis focalisée sur une autre approche : l'ingénierie de contrainte, qui offre un large éventail de possibilités pour moduler les propriétés électroniques des nanostructures de graphène. Pour ce travail théorique, tous les calculs ont été faits en utilisant essentiellement deux méthodes : un modèle atomistique de Hamiltonien de liaisons fortes pour décrire les propriétés électroniques du matériau et l'approche des fonctions de Green hors-équilibre pour le calcul du transport quantique. Après une introduction du contexte général de ce travail et des techniques de calcul développées dans ce but, j'ai d'abord analysé les effets de contrainte. En fait, une contrainte d'amplitude supérieure à 23% est nécessaire pour ouvrir un gap dans la structure de bande du graphène. Mais je montre qu'avec une contrainte de quelques pourcents, le décalage du point de dirac induit par la contrainte peut suffire à ouvrir un gap de conduction très significatif (500 meV ou plus) dans des hétérostructures de graphène constituées de jonctions graphène contraint/graphène non contraint, alors que chacun des matériaux reste semi-métallique. Après l'analyse détaillée de cette propriété en fonction de l'amplitude de la contrainte, de sa direction et de la direction du transport, j'exploite cet effet dans des jonctions appropriées pour améliore le comportement et les performances de différents types de dispositifs. En particulier, je montre qu'avec une contrainte de seulement 5% il est possible de couper efficacement le courant dans les transistors, de sorte que le rapport ON/OFF peut atteindre 100000, ce qui constitue une très forte amélioration par rapport aux transistors de graphène pristine où ce rapport ne peut pas excéder 10. Puis, nous montrons qu'en combinant ingénieries de contrainte et de dopage dans de telles jonctions, le coefficient Seebeck peut atteindre des valeurs aussi fortes que 1.4 mV/K, ce qui est 17 fois plus élevé que dans le graphène sans gap. Cela peut contribuer à faire du graphène un excellent matériau thermoélectrique. Enfin, j'ai étudié l'effet de conductance différentielle négative (CDE) dans des diodes de graphène, constituées soit d'une simple-barrière contrainte contrôlée par une grille, soit d'une jonction PN. Je montre qu'une ingénierie de contrainte appropriée peut induire de forts effets de CDE, avec un rapport pic/vallée de quelques centaines à température ambiante. / Due to its outstanding physical properties, graphene is expected to become a new generation material, able to replace or complement traditional semiconductors in device technology. Hence, many studies have been led to explore the potential of this material immediately after the successful fabrication of a single layer of graphene in 2004. However, applications of graphene in electronic devices are still questionable due to the gapless character of this material. In particular, regarding electronic applications, the absence of energy bandgap in the band structure makes it difficult to switch off the current in graphene devices like transistors. Regarding thermoelectric properties, the gapless character is also a strong drawback since it prevents the separation of the opposite contributions of electrons and holes to the Seebeck coefficient. Thus, a sizable band gap in graphene is a requirement to overcome the disadvantages of graphene and to fully benefit from its excellent conduction properties. It has been shown that many Nano structuring techniques can be used to open such a bandgap in graphene, e.g., graphene nanoribbons, graphene bilayer with a perpendicular electric field, graphene nanotech lattices, channels based on vertical stack of graphene layers, mixed graphene/hexagonal boron nitride structures, nitrogen doped graphene, and so on. However, each of these methods has its own fabrication issues and/or need to be further confirmed by experiments. In this work, we focus on strain engineering, which offers a wide range of opportunities for modulating the electronic properties of graphene nanostructures. For this theoretical work, all calculations were performed using essentially two main methods, i.e., an atomistic tight binding Hamiltonian model to describe the electronic structure and the non-equilibrium Green's function approach of quantum transport. The main aim is to analyze in details the strain effects in graphene and to provide strategies of strain engineering to improve the performance of both electronic (transistors and diodes) and thermoelectric devices. After introducing the general context if this work and the numerical techniques developed for this purpose, we first analyze the only effect of strain. Actually, if uniformly applied, a strain of large amplitude (> 23%) is required to open a bandgap in the band structure of graphene. However, we show that with a strain of only a few percent, the strain-induced shift of the Dirac point in k-space may be enough to open a sizable conduction gap (500 meV or more) in graphene heterojunctions made of unstrained/strained junctions, though the strained material remains gapless. After analyzing in details this property according the amplitude and direction of strain and the direction of transport, we exploit this effect using appropriate strain junctions to improve the behavior and performance of several types of devices. In particular, we show that with a strain of only 5%, it is possible to switch-off transistors efficiently, so that the ON/OFF current ratio can reach 100000, which is a strong improvement with respect to pristine graphene transistors where this ratio cannot exceed 10. Then we show that by combining strain and doping engineering in such strain junctions the Seebeck coefficient can reach values higher than 1.4 mV/K, which is 17 times higher than in gapless pristine graphene. It can contribute to make graphene an excellent thermoelectric material. Finally, we study the effect of negative differential conductance (NDC) in graphene diodes made of either as single gate-induced strained barrier or a p-n junction. We show that appropriate strain engineering in these devices can lead to very strong NDC effects with peak-to-valley ratios of a few hundred at room temperature.
|
4 |
Développement d'une plateforme de calcul d'équilibres chimiques complexes et adaptation aux problèmes électrochimiques et d'équilibres contraintsNéron, Alex January 2012 (has links)
Avec l'arrivée de l'environnement comme enjeu mondial, le secteur de l'efficacité énergétique prend une place de plus en plus importante pour les entreprises autant au niveau économique que pour l'image de la compagnie. Par le fait même, le domaine des technologies de l'énergie est un créneau de recherche dont les projets en cours se multiplient. D'ailleurs, un des problèmes qui peut survenir fréquemment dans certaines entreprises est d'aller mesurer la composition des matériaux dans des conditions difficiles d'accès. C'est le cas par exemple de l'électrolyse de l'aluminium qui se réalise à des températures très élevées. Pour pallier à ce problème, il faut créer et valider des modèles mathématiques qui vont calculer la composition et les propriétés à l'équilibre du système chimique. Ainsi, l'objectif global du projet de recherche est de développer un outil de calcul d'équilibres chimiques complexes (plusieurs réactions et plusieurs phases) et l'adapter aux problèmes électrochimiques et d'équilibres contraints. Plus spécifiquement, la plateforme de calcul doit tenir compte de la variation de température due à un gain ou une perte en énergie du système. Elle doit aussi considérer la limitation de l'équilibre due à un taux de réaction et enfin, résoudre les problèmes d'équilibres électrochimiques. Pour y parvenir, les propriétés thermodynamiques telles que l'énergie libre de Gibbs, la fugacité et l'activité sont tout d'abord étudiées pour mieux comprendre les interactions moléculaires qui régissent les équilibres chimiques. Ensuite, un bilan énergétique est inséré à la plateforme de calcul, ce qui permet de calculer la température à laquelle le système est le plus stable en fonction d'une température initiale et d'une quantité d'énergie échangée. Puis, une contrainte cinétique est ajoutée au système afin de calculer les équilibres pseudo-stationnaires en évolution dans le temps. De plus, la contrainte d'un champ de potentiel électrique est considérée pour l'évaluation des équilibres électrochimiques par des techniques classiques de résolution et fera l'objet de travaux futurs via une technique d'optimisation. Enfin, les résultats obtenus sont comparés avec ceux présents dans la littérature scientifique pour valider le modèle. À terme, le modèle développé devient un bon moyen de prédire des résultats en éliminant beaucoup de coût en recherche et développement. Les résultats ainsi obtenus sont applicables dans une grande variété de domaines tels que la chimie et l'électrochimie industrielle ainsi que la métallurgie et les matériaux. Ces applications permettraient de réduire la production de gaz à effet de serre en optimisant les procédés et en ayant une meilleure efficacité énergétique.
|
5 |
Sur l'estimation du rapport de deux paramètres d'intensité poissonniens et l'estimation par fonctions de masse prédictivesChabot, Myriam January 2016 (has links)
Ce mémoire est consacré à l'étude du modèle statistique bivarié duquel sont issues deux variables aléatoires conditionnellement indépendantes de loi de Poisson, dont les taux ne sont pas nécessairement égaux. Tout au long de ce mémoire, l'emphase est mise sur le développement d'un cadre bayésien au problème d'estimation paramétrique pour un tel modèle. Deux thèmes principaux y sont abordés : l'inférence statistique du rapport des deux paramètres d'intensité poissonniens et les densités prédictives. Ces problèmes surviennent notamment dans le contexte d'estimation de l'efficacité d'un vaccin développé par Laurent (Laurent, 2012) de même que Laurent et Legrand (Laurent et Legrand, 2012), ou encore, par celui d'estimation de l'efficacité d'un traitement contre le cancer par Lindley (Lindley, 2002). Alors que, dans ces articles, aucune contrainte paramétrique n'est imposée sur le rapport des deux taux poissonniens, une partie du mémoire abordera également ces thèmes lorsqu'il y a une contrainte restreignant le domaine du rapport sur l'intervalle $[0,1]$. Il sera alors possible d'établir des liens avec un article sur les files d'attente d'Armero et Bayarri (Armero et Bayarri, 1994).
|
6 |
Agent Ordering and Nogood Repairs in Distributed Constraint SolvingZhou, Lingzhong, n/a January 2006 (has links)
The distributed constraint satisfaction problem is a general formalization used to represent problems in distributed multi-agent systems. A large body of problems in artificial intelligence and computer science can be easily formulated as distributed constraint satisfaction problems. In this thesis we study agent ordering, effects of no-goods, search efficiency and threshold repairing in distributed constraint satisfaction problems and its variants. A summary of contributions is as follows: 1. We present a new algorithm, Dynamic Agent Ordering. A distinctive feature of this algorithm is that it uses the degree of unsatisfiability as a guiding parameter to dynamically determine agent ordering during the search. We show through an empirical study that our algorithm performs better than the existing approaches. In our approach, the independence of agents is guaranteed and agents without neighbouring relationships can run concurrently and asynchronously. (Part of this work was published in the Australian Al Conference (80)). 2. We extend the Dynamic Agent Ordering algorithm by incorporating a novel technique called nogood repairing. This results in a dramatic reduction in the nogoods being stored, and communication costs. In an empirical study, we11 show that this approach outperforms an equivalent static ordering algorithm and a current state-of-the-art technique in terms of execution time, memory usage and communication cost. (Part of this work was published at FLAIRS Conference (81)). Further, we introduce a new algorithm, Over-constrained Dynamic Agent Ordering, that breaks new ground in handling multiple variables per agent in distributed over-constrained satisfaction problems. The algorithm also uses the degree of unsatisfiability as a measure for relaxing constraints, and hence as a way to guide the search toward the best optimal solution(s). By applying our Threshold Repair method, we can solve a distributed constraint satisfaction problem without knowing whether the problem is under- or over-constrained. In an experimental study, we show that the new algorithm compares favourably to an implementation of asynchronous weak commitment search adapted to handle over-constrained problems. (Part of this work was published at the Canadian AI conference (79)).
|
7 |
KALIMUCHO : Adaptation au Contexte pour la Gestion de la Qualité de ServiceLouberry, Christine 10 September 2010 (has links) (PDF)
Dans cette thèse, nous avons choisi d'aborder l'adaptation dynamique au contexte comme un outil de gestion de la qualité de service. Nous présentons une plate-forme pour la reconfiguration et le déploiement contextuel d'applications en environnement contraint appelée Kalimucho. Kalimucho est une plate-forme distribuée qui dispose d'une représentation globale de l'application. Elle permet d'effectuer des reconfigurations dynamiques des applications basées composants grâce à cinq actions de base : ajouter, supprimer, migrer, connecter et déconnecter. L'originalité de cette plate-forme est qu'elle exploite le plus possible les ressources de l'application en permettant d'utiliser tous les périphériques disponibles comme supports des composants logiciels de l'application, qu'ils soient ou non en relation avec les fonctionnalités du périphérique. Pour cela elle repose sur un modèle de QdS à deux dimensions : l'Utilité qui permet de garantir une application conforme aux souhaits de l'utilisateur et aux conditions d'utilisation et la Pérennité qui garantit une durée de vie suffisante. Ce modèle est implémenté par une heuristique de choix d'une configuration à déployer qui permet de trouver une configuration et le déploiement associé qui respectent ces critères de QdS. Enfin nous proposons une méthode de conception qui guide le concepteur dans la modélisation du contexte et des applications. Elle permet d'identifier tous les évènements pouvant engendrer des reconfigurations et de les associer à une action. Elle permet également de décomposer l'application en différentes configurations qui servent de base au choix de reconfiguration. Enfin elle permet de définir toutes les règles de modification du modèle de QdS en fonction des changements du contexte afin de pouvoir proposer différentes politiques d'adaptation : utilisation normale, situation d'urgence, etc.
|
8 |
Un codage réseau contraint pour les réseaux de capteurs sans filSalhi, Ismail 04 April 2012 (has links) (PDF)
Les réseaux de communication inter-machines font partie des grandes évolutions de l'informatique contemporaine. Ces réseaux évolutifs promettent une nouvelle gamme de services et une meilleure connaissance du monde qui nous entoure. Pourtant, ils subissent plusieurs limitations de par la nature même des nœuds qui les composent : un débit faible et une fiabilité réduite dues aux contraintes en termes de capacité de calcul et de mémoire, une durée de vie limitée, ainsi que des délais non bornés souvent causés par des taux de perte élevés. Ces mêmes problématiques constituent, depuis une quinzaine d'années, un frein au déploiement à large échelle des réseaux de capteurs dans le monde réel. De récents développements dans la théorie de l'information sont finalement en train de bouleverser l'ordre établi, donnant naissance à une nouvelle approche connue sous le nom de théorie du codage réseau. Cette nouvelle façon d'acheminer l'information transforme les méthodes d'exploitation, de gestion et même la compréhension des réseaux de communications actuels et futurs. C'est dans ce contexte, que nous proposons dans cette thèse d'étudier l'impact, les bénéfices et la faisabilité du codage réseau dans les réseaux de capteurs sans fil. L'objectif étant de montrer l'intérêt d'exploiter ses concepts pour les différents paradigmes propres aux réseaux inter-machines en général, et aux réseaux de capteurs en particulier. Il s'agit dans un premier temps d'évaluer les apports prospectifs du codage réseau, qu'il soit linéaire ou opportuniste, strictement en termes de performances (i.e., latence et débit). Dans une seconde partie, nous poursuivrons notre étude en traitant de l'impact du codage réseau sur la fiabilité des réseaux de capteurs, ces derniers étant caractérisés par l'absence de mécanismes de contrôle de flux de bout-en-bout. Dans une dernière contribution, nous explorons la faisabilité dans une plateforme réelle, d'un mécanisme de codage réseau contraint spécifiquement conçu pour les réseaux à faible débit. Ce code opportuniste, est centré sur l'optimisation mémoire et l'efficacité énergétique. Il permet à la fois, d'améliorer les performances du réseau mais aussi sa fiabilité. De manière plus générale, cette thèse se présente comme une réponse à la question : " Quel type de codage, pour quels réseaux de capteurs ? " Elle ne prétend pas être l'unique réponse, mais propose néanmoins des briques théoriques et technologiques qui illustrent à la fois, la faisabilité du codage réseau dans les réseaux contraints, mais aussi la nécessité de l'adapter à leurs critères
|
9 |
Effet Pockels dans les guides d'onde en silicium contraint : Vers la modulation optique à haute vitesse et faible consommation d'énergie dans le silicium / Pockels effect in strained silicon waveguidesLùcio de Sales Damas, Pedro Alberto 19 July 2016 (has links)
Ce travail est centré sur l'étude des non-linéarités de deuxiéme ordre dans le silicium vers une modulation optique à faible puissance et haute vitesse. Étant un cristal centro-symétrique, le silicium ne possède pas une susceptibilité non linéaire de deuxiéme ordre (X2), ce qui inhibe l'effet Pockels, un effet électro-optique linéaire couramment utilisé dans la modulation de la lumière dans les communications optiques. Une solution possible pour vaincre cette limitation est par application de contraint et déformation de la maille cristalline, ce qui rompt localement la centro-symétrie du cristal et génère X2.Dans cette thèse, nous abordons le problème de la génération de X2 dans le silicium par l'utilisation de la contrainte, couvrant toutes les étapes de la recherche: nous partons de bases théoriques développées par nous, on simule l'ensemble des effets de contraints, optiques et électriques, on décrit la fabrication des dispositifs et finalement on présent la caractérisation expérimentale de ces dispositifs.Dans ce travail de recherche, nous avons pu détecter des effets très particuliers qui sont attribués au effet Pockels, comme par example une dépendance claire de l'orientation du cristal sur l'efficacité de la modulation et aussi la modulation à haute fréquences, plus élevées que celles attendues par autres contributions. Ces résultats sont très prometteurs et se composent d'une nouvelle étape vers la mise en œuvre, dans un avenir proche, de la modulation à grande vitesse et à faible puissance dans les dispositifs de silicium. / This work is devoted to the study of second order nonlinearities in silicon towards low power, high speed modulation. Being a centro-symmetric crystal, silicon does not possess a second order nonlinear susceptibility (X2), which inhibits Pockels effect, a linear electro-optic effect commonly used in the modulation of light in high speed communications. A possible solution to overcome this limitation is by straining/deforming the crystal lattice, which locally breaks the centro-symmetry of the crystal and generates X2.In this thesis, we approach the problem of generating X2 in silicon through the use of strain, covering all the research stages: we depart from newly developed theoretical grounds, simulate together the strain, optical and electrical effects together, describe the fabrication of the devices and present the experimental characterization.In our research work, we were able to detect very particular effects which are attributed to Pockels effect, such as a clear dependence of the crystal orientation on the modulation efficiency and high speed modulation, at frequencies higher than those expected from other contributions. This results are very promising and consist on a step further towards the possible implementation of high speed, low power modulation in silicon devices in the near future.
|
10 |
L'ajustement de faisceaux contraint comme cadre d'unification des méthodes de localisation : application à la réalité augmentée sur des objets 3D / Constrained beam adjustment as a framework for unifying location methods : application to augmented reality on 3D objectsTamaazousti, Mohamed 13 March 2013 (has links)
Les travaux réalisés au cours de cette thèse s’inscrivent dans la problématique de localisation en temps réel d’une caméra par vision monoculaire. Dans la littérature, il existe différentes méthodes qui peuvent être classées en trois catégories. La première catégorie de méthodes considère une caméra évoluant dans un environnement complètement inconnu (SLAM). Cette méthode réalise une reconstruction enligne de primitives observées dans des images d’une séquence vidéo et utilise cette reconstruction pour localiser la caméra. Les deux autres permettent une localisation par rapport à un objet 3D de la scène en s’appuyant sur la connaissance, a priori, d’un modèle de cet objet (suivi basé modèle). L’une utilise uniquement l’information du modèle 3D de l’objet pour localiser la caméra, l’autre peut être considérée comme l’intermédiaire entre le SLAM et le suivi basé modèle. Cette dernière méthode consiste à localiser une caméra par rapport à un objet en utilisant, d’une part, le modèle de ce dernier et d’autre part, une reconstruction en ligne des primitives de l’objet d’intérêt. Cette reconstruction peut être assimilée à une mise à jour du modèle initial (suivi basé modèle avec mise à jour). Chacune de ces méthodes possède des avantages et des inconvénients. Dans le cadre de ces travaux de thèse, nous proposons une solution unifiant l’ensemble de ces méthodes de localisation dans un unique cadre désigné sous le terme de SLAM contraint. Cette solution, qui unifie ces différentes méthodes, permet de tirer profit de leurs avantages tout en limitant leurs inconvénients respectifs. En particulier, nous considérons que la caméra évolue dans un environnement partiellement connu, c’est-à-dire pour lequel un modèle (géométrique ou photométrique) 3D d’un objet statique de la scène est disponible. L’objectif est alors d’estimer de manière précise la pose de la caméra par rapport à cet objet 3D. L’information absolue issue du modèle 3D de l’objet d’intérêt est utilisée pour améliorer la localisation de type SLAM en incluant cette information additionnelle directement dans le processus d’ajustement de faisceaux. Afin de pouvoir gérer un large panel d’objets 3D et de scènes, plusieurs types de contraintes sont proposées dans ce mémoire. Ces différentes contraintes sont regroupées en deux approches. La première permet d’unifier les méthodes SLAM et de suivi basé modèle, en contraignant le déplacement de la caméra via la projection de primitives existantes extraites du modèle 3D dans les images. La seconde unifie les méthodes SLAM et de suivi basé modèle avec mise à jour en contraignant les primitives reconstruites par le SLAM à appartenir à la surface du modèle (unification SLAM et mise à jour du modèle). Les avantages de ces différents ajustements de faisceaux contraints, en terme de précision, de stabilité de recalage et de robustesse aux occultations, sont démontrés sur un grand nombre de données de synthèse et de données réelles. Des applications temps réel de réalité augmentée sont également présentées sur différents types d’objets 3D. Ces travaux ont fait l’objet de 4 publications internationales, de 2 publications nationales et d’un dépôt de brevet. / This thesis tackles the problem of real time location of a monocular camera. In the literature, there are different methods which can be classified into three categories. The first category considers a camera moving in a completely unknown environment (SLAM). This method performs an online reconstruction of the observed primitives in the images and uses this reconstruction to estimate the location of the camera. The two other categories of methods estimate the location of the camera with respect to a 3D object in the scene. The estimation is based on an a priori knowledge of a model of the object (Model-based). One of these two methods uses only the information of the 3D model of the object to locate the camera. The other method may be considered as an intermediary between the SLAM and Model-based approaches. It consists in locating the camera with respect to the object of interest by using, on one hand the 3D model of this object, and on the other hand an online reconstruction of the primitives of the latter. This last online reconstruction can be regarded as an update of the initial 3D model (Model-based with update). Each of these methods has advantages and disadvantages. In the context of this thesis, we propose a solution in order to unify all these localization methods in a single framework referred to as the constrained SLAM, by taking parts of their benefits and limiting their disadvantages. We, particularly, consider that the camera moves in a partially known environment, i.e. for which a 3D model (geometric or photometric) of a static object in the scene is available. The objective is then to accurately estimate the pose (position and orientation) of the camera with respect to this object. The absolute information provided by the 3D model of the object is used to improve the localization of the SLAM by directly including this additional information in the bundle adjustment process. In order to manage a wide range of 3D objets and scenes, various types of constraints are proposed in this study and grouped into two approaches. The first one allows to unify the SLAM and Model-based methods by constraining the trajectory of the camera through the projection, in the images, of the 3D primitives extracted from the model. The second one unifies the SLAM and Model-based with update methods, by constraining the reconstructed 3D primitives of the object to belong to the surface of the model (unification SLAM and model update). The benefits of the constrained bundle adjustment framework in terms of accuracy, stability, robustness to occlusions, are demonstrated on synthetic and real data. Real time applications of augmented reality are also presented on different types of 3D objects. This work has been the subject of four international publications, two national publications and one patent.
|
Page generated in 0.0433 seconds