• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 321
  • 97
  • 40
  • 6
  • 1
  • 1
  • 1
  • Tagged with
  • 497
  • 188
  • 118
  • 60
  • 54
  • 36
  • 35
  • 27
  • 26
  • 25
  • 24
  • 22
  • 21
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Nouvelles méthodes de synchronisation de nuages de points 3D pour l'insertion de données cachées / New 3D point cloud synchronization methods for data hiding

Itier, Vincent 01 December 2015 (has links)
Cette thèse aborde les problèmes liés à la protection de maillages d'objets 3D. Ces objets peuvent, par exemple, être créés à l'aide d'outil de CAD développés par la société STRATEGIES. Dans un cadre industriel, les créateurs de maillages 3D ont besoin de disposer d'outils leur permettant de vérifier l'intégrité des maillages, ou de vérifier des autorisations pour l'impression 3D par exemple. Dans ce contexte nous étudions l'insertion de données cachées dans des maillages 3D. Cette approche permet d'insérer de façon imperceptible et sécurisée de l'information dans un maillage. Il peut s'agir d'un identifiant, de méta-informations ou d'un contenu tiers, par exemple, pour transmettre de façon secrète une texture. L'insertion de données cachées permet de répondre à ces problèmes en jouant sur le compromis entre la capacité, l'imperceptibilité et la robustesse. Généralement, les méthodes d'insertion de données cachées se composent de deux phases, la synchronisation et l'insertion. La synchronisation consiste à trouver et ordonner les éléments disponibles pour l'insertion. L'un des principaux challenges est de proposer une méthode de synchronisation 3D efficace qui définit un ordre sur les composants des maillages. Dans nos travaux, nous proposons d'utiliser les sommets du maillage, plus précisément leur représentation géométrique dans l'espace comme composants de base pour la synchronisation et l'insertion. Nous présentons donc trois nouvelles méthodes de synchronisation de la géométrie des maillages basées sur la construction d'un chemin hamiltonien dans un nuage de sommets. Deux de ces méthodes permettent de manière conjointe de synchroniser les sommets et de cacher un message. Cela est possible grâce à deux nouvelles méthodes d'insertion haute capacité (de $3$ à $24$ bits par sommet) qui s'appuient sur la quantification des coordonnées. Dans ces travaux nous mettons également en évidence les contraintes propres à ce type de synchronisation. Nous discutons des différentes approches proposées dans plusieurs études expérimentales. Nos travaux sont évalués sur différents critères dont la capacité et l'imperceptibilité de la méthode d'insertion. Nous portons également notre attention aux aspects sécurité des méthodes. / This thesis addresses issues relating to the protection of 3D object meshes. For instance, these objects can be created using CAD tool developed by the company STRATEGIES. In an industrial context, 3D meshes creators need to have tools in order to verify meshes integrity, or check permission for 3D printing for example.In this context we study data hiding on 3D meshes. This approach allows us to insert information in a secure and imperceptible way in a mesh. This may be an identifier, a meta-information or a third-party content, for instance, in order to transmit secretly a texture. Data hiding can address these problems by adjusting the trade-off between capacity, imperceptibility and robustness. Generally, data hiding methods consist of two stages, the synchronization and the embedding. The synchronization stage consists of finding and ordering available components for insertion. One of the main challenges is to propose an effective synchronization method that defines an order on mesh components. In our work, we propose to use mesh vertices, specifically their geometric representation in space, as basic components for synchronization and embedding. We present three new synchronisation methods based on the construction of a Hamiltonian path in a vertex cloud. Two of these methods jointly perform the synchronization stage and the embedding stage. This is possible thanks to two new high-capacity embedding methods (from 3 to 24 bits per vertex) that rely on coordinates quantization. In this work we also highlight the constraints of this kind of synchronization. We analyze the different approaches proposed with several experimental studies. Our work is assessed on various criteria including the capacity and imperceptibility of the embedding method. We also pay attention to security aspects of the proposed methods.
152

Les droits de la personne âgée : proposition d'un statut de post-majorité / The rights of elderly person : proposal for a post-majorité status

Gérard, Caroline 02 July 2018 (has links)
L’allongement de l’espérance de vie modifie substantiellement l’ordre sociétal. Les personnes âgées composent une part toujours plus grande de la population et font désormais l’objet d’une attention particulière de la part des politiques publiques comme des acteurs privés. La société est aux portes de sa silver mutation. Pourtant la discipline juridique semble réfractaire à l’idée d’une appréhension spécifique de la vieillesse. Si un soin particulier est d’ores et déjà apporté aux personnes âgées dans de nombreux domaines, ce n’est que de façon parcellaire et éparse. L’adaptation du droit au vieillissement ne pourra se contenter de simples ajustements. La protection de la personne âgée se fait aujourd’hui sous le prisme d’une protection commune où l’âge n’est que peu pris en compte. Dans une toute autre mesure, la personne âgée peut également être protégée via les mécanismes de protection juridique des majeurs. Là encore, l’âge n’est pas considéré comme un critère de protection. Cette négation relative du critère de l’âge avancé comme source d’une protection n’est pas adaptée à l’évolution démographique. La vieillesse devrait être protégée pour elle-même et tout majeur doit être assuré du respect de ses droits et du maintien maximal de sa capacité juridique tout au long de sa vie. C’est pour cette raison que cette thèse propose une réorientation de la norme au profit de la vieillesse. Une pareille évolution pourrait offrir à la société une chance de s’adapter à son propre vieillissement et d’en prendre la réelle mesure. L’insertion d’une post-majorité, conçue comme un nouveau temps général de l’existence, porte la promesse d’une protection diffuse et généralisée de la vieillesse et propose un équilibre nouveau entre capacité et protection. L’objectif poursuivi est de sécuriser l’expression et le respect de la volonté durant la période de vieillesse, tout en stimulant les interdépendances intergénérationnelles qui sont essentielles à la mobilisation de la société en son entier au profit des personnes âgées. / The lengthening of life expectancy sybstantially changes the societal order. Older people make up an ever-increasing share of the population and are now the receiving special attention from both public and private actors. The society is at the gates of its silver mutation. Yet the legal discipline seems refractory the the idea of a specific apprehension of old age. If a particular care is already given to the elderly in many areas, it is only in a piecemeal and sparse way. Adapting the rigth to ageing cannot be satisfied with simple adjustments. The protection of the elderly person is now under the prism of a common protection where age is only little takin into account. In any other measure, the older person can also be protected though the legal protection mechanisms of adults. Again, age is not considered a criterion of protection. This relative negation of the advanced age criterion as a source of protection is not adapted to demographic change. Old age should be protected for itself and every major must be assurez of the respect of her rights and the best maintenance of her legal capacity throughout his life. It is for this reason that this thesis proposes a reorientation of the norm in favour of old age. Such an evolution could give society a chance to adapt to its own ageing and to take the real measure. The insertion of a post-majority, conceived as a new general time of existence, carries the promise of widespread protection of old age and proposes a new balance between capacity and protection. The aim is to secure the expression and respect for the will during the period of old age, while stimulating the intergenerational interdependence that is essential to the mobilization of the whole society for the benefit of elderly.
153

Aedes aegypti à la Martinique : écologie et transmission des arbovirus / Aedes aegypti in Martinique : ecology and transmission of arboviruses

Farraudière, Laurence 28 November 2016 (has links)
Le moustique Aedes aegypti représente un problème de santé publique majeur, car il est le principal vecteur des virus de la Fièvre Jaune, de la Dengue, du Chikungunya et du Zika à l’échelle mondiale. Dans la région des Amériques, ce moustique a été introduit, depuis le continent africain au cours du XVIIème siècle. À la Martinique, entre 2013 et 2016, cette espèce a transmis de façon active les virus de le Dengue, du Chikungunya et du Zika, plaçant l’île en situation épidémique. Sur l’île, la Dengue est devenue endémique depuis près de 20 ans, avec 7 grandes épidémies (1995, 1997, 2001, 2005, 2007, 2010, 2013) ; celle de 2010 a touché près de 40 000 personnes et causé 18 décès. Le Chikungunya est apparue en Décembre 2013 et l’épidémie qui a duré jusqu’en Janvier 2015 a touché 72 520 personnes (dont 83 décès). Le Zika est apparu en Décembre 2015 et l’épidémie a duré toute l’année 2016 (36 000 cas estimés au 30 Septembre). C’est dans ce contexte de circulation active des arbovirus, et dans la volonté d’améliorer les connaissances actuelles sur la bioécologie du vecteur Ae. aegypti, qu’a été initié ce travail sur le thème « Aedes aegypti à la Martinique : écologie et transmission des arbovirus ». La détection puis la caractérisation des virus dengue et chikungunya dans les populations naturelles du moustique ont confirmé le rôle vectoriel d’Ae. aegypti. Ces résultats permettent d’envisager la mise en place d’une veille entomo-virologique dans le cadre de la surveillance des virus circulant sur l’île ; cette veille entomo-virologique pouvant avoir une application opérationnelle (contrôle de foyers émergents). Ensuite, des études portant sur l’écologie larvaire du moustique ont été initiées. L’étude physicochimique des eaux des gîtes larvaires, les retombées de deltaméthrine suite à un traitement spatial et leurs impacts sur le développement larvaire et les traits de vie du moustique ont permis de confirmé que le phénomène de résistance aux insecticides des populations locales d’Ae. aegypti est un frein dans la stratégie de lutte contre le vecteur, dans la mesure où le développement de ce dernier n’était pas affecté. À l’échelle locale, ces études combinées, visent à compléter les données et connaissances sur le moustique, en vue d’une gestion plus efficace de ce dernier et des risques sanitaires et épidémiologiques qui lui sont associés. / Aedes aegypti mosquito is a major public health problem because it is the main vector of Yellow Fever, Dengue, Chikungunya and Zika viruses worldwide. In the Americas, the mosquito was introduced from Africa during the seventeenth century. In Martinique, between 2013 and 2016, the species has actively transmitted Dengue, Chikungunya and Zika viruses, placing the island in an epidemic situation. On the island, Dengue has become endemic in nearly 20 years, with 7 major epidemics (1995, 1997, 2001, 2005, 2007, 2010, 2013); the 2010 epidemic affected almost 40,000 people and caused 18 deaths. Chikungunya virus was introduced in December 2013 and the epidemic lasted until January 2015 and affected 72,520 people (including 83 deaths). Zika virus was introduced in December 2015 and the epidemic lasted throughout 2016 (36,000 cases estimated up to September 30th). In this context of active circulation of arboviruses, and the will to improve the current knowledge on the bioecology of the vector Ae. aegypti, we initiated the work on "Aedes aegypti in Martinique : ecology and transmission of arboviruses."Detection and characterization of Dengue and Chikungunya viruses in natural populations of the mosquito have first confirmed the role of Ae. aegypti as the main vector of these arboviruses on the island. These results allow to consider the establishment of a virological monitoring tool for surveillance of viruses circulating on the island; this can have an operational application such as the control of emerging households.Then, studies of larval mosquito ecology have been initiated. Physicochemical studies of breeding sites waters, impact of deltamethrin after spatial spray and their impacts on larval development and mosquito life traits showed no effect on the general reserves of emerging adults confirmed that the phenomenon of insecticide resistance of local populations of Ae. aegypti is an obstacle in the strategy against the vector. Locally, these studies are intended to supplement data and knowledge about the mosquito, for a more efficient management of the sanitary and epidemiological risks associated.
154

Modélisation des données d'enquêtes cas-cohorte par imputation multiple : application en épidémiologie cardio-vasculaire / Modeling of case-cohort data by multiple imputation : application to cardio-vascular epidemiology

Marti soler, Helena 04 May 2012 (has links)
Les estimateurs pondérés généralement utilisés pour analyser les enquêtes cas-cohorte ne sont pas pleinement efficaces. Or, les enquêtes cas-cohorte sont un cas particulier de données incomplètes où le processus d'observation est contrôlé par les organisateurs de l'étude. Ainsi, des méthodes d'analyse pour données manquant au hasard (MA) peuvent être pertinentes, en particulier, l'imputation multiple, qui utilise toute l'information disponible et permet d'approcher l'estimateur du maximum de vraisemblance partielle.Cette méthode est fondée sur la génération de plusieurs jeux plausibles de données complétées prenant en compte les différents niveaux d'incertitude sur les données manquantes. Elle permet d'adapter facilement n'importe quel outil statistique disponible pour les données de cohorte, par exemple, l'estimation de la capacité prédictive d'un modèle ou d'une variable additionnelle qui pose des problèmes spécifiques dans les enquêtes cas-cohorte. Nous avons montré que le modèle d'imputation doit être estimé à partir de tous les sujets complètement observés (cas et non-cas) en incluant l'indicatrice de statut parmi les variables explicatives. Nous avons validé cette approche à l'aide de plusieurs séries de simulations: 1) données complètement simulées, où nous connaissions les vraies valeurs des paramètres, 2) enquêtes cas-cohorte simulées à partir de la cohorte PRIME, où nous ne disposions pas d'une variable de phase-1 (observée sur tous les sujets) fortement prédictive de la variable de phase-2 (incomplètement observée), 3) enquêtes cas-cohorte simulées à partir de la cohorte NWTS, où une variable de phase-1 fortement prédictive de la variable de phase-2 était disponible. Ces simulations ont montré que l'imputation multiple fournissait généralement des estimateurs sans biais des risques relatifs. Pour les variables de phase-1, ils approchaient la précision obtenue par l'analyse de la cohorte complète, ils étaient légèrement plus précis que l'estimateur calibré de Breslow et coll. et surtout que les estimateurs pondérés classiques. Pour les variables de phase-2, l'estimateur de l'imputation multiple était généralement sans biais et d'une précision supérieure à celle des estimateurs pondérés classiques et analogue à celle de l'estimateur calibré. Les résultats des simulations réalisées à partir des données de la cohorte NWTS étaient cependant moins bons pour les effets impliquant la variable de phase-2 : les estimateurs de l'imputation multiple étaient légèrement biaisés et moins précis que les estimateurs pondérés. Cela s'explique par la présence de termes d'interaction impliquant la variable de phase-2 dans le modèle d'analyse, d'où la nécessité d'estimer des modèles d'imputation spécifiques à différentes strates de la cohorte incluant parfois trop peu de cas pour que les conditions asymptotiques soient réunies.Nous recommandons d'utiliser l'imputation multiple pour obtenir des estimations plus précises des risques relatifs, tout en s'assurant qu'elles sont analogues à celles fournies par les analyses pondérées. Nos simulations ont également montré que l'imputation multiple fournissait des estimations de la valeur prédictive d'un modèle (C de Harrell) ou d'une variable additionnelle (différence des indices C, NRI ou IDI) analogues à celles fournies par la cohorte complète / The weighted estimators generally used for analyzing case-cohort studies are not fully efficient. However, case-cohort surveys are a special type of incomplete data in which the observation process is controlled by the study organizers. So, methods for analyzing Missing At Random (MAR) data could be appropriate, in particular, multiple imputation, which uses all the available information and allows to approximate the partial maximum likelihood estimator.This approach is based on the generation of several plausible complete data sets, taking into account all the uncertainty about the missing values. It allows adapting any statistical tool available for cohort data, for instance, estimators of the predictive ability of a model or of an additional variable, which meet specific problems with case-cohort data. We have shown that the imputation model must be estimated on all the completely observed subjects (cases and non-cases) including the case indicator among the explanatory variables. We validated this approach with several sets of simulations: 1) completely simulated data where the true parameter values were known, 2) case-cohort data simulated from the PRIME cohort, without any phase-1 variable (completely observed) strongly predictive of the phase-2 variable (incompletely observed), 3) case-cohort data simulated from de NWTS cohort, where a phase-1 variable strongly predictive of the phase-2 variable was available. These simulations showed that multiple imputation generally provided unbiased estimates of the risk ratios. For the phase-1 variables, they were almost as precise as the estimates provided by the full cohort, slightly more precise than Breslow et al. calibrated estimator and still more precise than classical weighted estimators. For the phase-2 variables, the multiple imputation estimator was generally unbiased, with a precision better than classical weighted estimators and similar to Breslow et al. calibrated estimator. The simulations performed with the NWTS cohort data provided less satisfactory results for the effects where the phase-2 variable was involved: the multiple imputation estimators were slightly biased and less precise than the weighted estimators. This can be explained by the interactions terms involving the phase-2 variable in the analysis model and the necessity of estimating specific imputation models in different strata not including sometimes enough cases to satisfy the asymptotic conditions. We advocate the use of multiple imputation for improving the precision of the risk ratios estimates while making sure they are similar to the weighted estimates.Our simulations also showed that multiple imputation provided estimates of a model predictive value (Harrell's C) or of an additional variable (difference of C indices, NRI or IDI) similar to those obtained from the full cohort.
155

Analyse quantitative des architectures des marchés électriques : illustration des dynamiques de court et long termes / Quantitative assessment of electricity market designs : illustrations of short-term and long-term dynamics

Hary, Nicolas 28 March 2018 (has links)
Suite aux réformes des marchés électriques, la question du market design, c’est-à-dire l’étude des nouveaux marchés destinés à remplacer l’ancien monopole, est devenue centrale dans la littérature économique. Toutefois, les caractéristiques techniques de l’électricité rendent cette tâche complexe et l’intervention des pouvoirs publics est souvent nécessaire pour établir les règles du jeu efficaces que les acteurs de marché devront suivre. Cela explique pourquoi le market design demeure un sujet d’actualité. Cette thèse contribue aux discussions actuelles en étudiant plusieurs architectures de marché à mettre en place afin d’assurer la fiabilité du système électrique de la façon la plus efficace.La fiabilité est d’abord étudiée sous sa dimension de court terme, appelée sûreté. Pour garantir un équilibre en temps réel, l’opérateur du système doit s’assurer de disposer d’un niveau suffisant de réserves: c’est l’objectif du modèle de sûreté. Dans cette thèse, les impacts économiques induits par un changement de modèle de sureté pour le système électrique français sont évalués. Une modélisation de type Agent-Based est développée pour simuler les décisions des acteurs sur plusieurs marchés de court terme. Les résultats montrent que le modèle de sureté français actuel conduit à des coûts inférieurs à ceux du modèle alternatif mis en œuvre dans d’autres pays européens. Le maintien du modèle actuel en France apparait donc justifié.La dimension long terme de la fiabilité, à savoir l’adéquation, est ensuite étudiée. Les performances économiques d’un marché de capacité et d’un mécanisme de réserve stratégique, deux solutions conçues pour résoudre le problème d’adéquation, sont comparées. Afin de considérer la nature cyclique des investissements, ces mécanismes sont étudiés d’un point de vue dynamique par l’intermédiaire d’une modélisation de type System Dynamics. Celle-ci simule les décisions d'investissements et de fermetures prises par les acteurs de marché, en considérant leurs comportements imparfaits. Les principaux résultats montrent que le marché de capacité résout la question de l'adéquation à un coût moindre. / Following power market reforms, market design, i.e. the study of new markets to replace efficiently the previous monopoly, becomes central in the economic literature. However, due to several technical characteristics of electricity, this task is complex. A third party is then required to help design these markets in an efficient way and to set the rules under which private decentralized market players will interact. This complexity explains why market design remains a work in progress. This thesis contributes to the current discussions by giving insights on the most efficient market designs to implement to ensure the reliability of power systems.A first focus is made on the short-term dimension of reliability, i.e. the security of power systems. To maintain a balanced system, the system operator has to ensure the availability of a sufficient level of reserves in real time: this is the aim of the security model. In this thesis, a quantitative assessment of the economic impacts that a transition to a different security model would have for the French power system is carried out. An agent-based modelling is developed to simulate the decisions of profit-maximizing players on several short-term markets. Simulations show that the current French security model results in lower costs than the alternative one implemented in several European countries, and should therefore be maintained for the French power system.A second focus is made on the long-term dimension of reliability, i.e. the adequacy. The economic performances of a capacity market and a strategic reserve mechanism, two mechanisms designed to solve the adequacy issue, are compared. In order to capture the cyclical nature of investments, these mechanisms are studied from a dynamic point of view. To this end, a long-term model is developed based on a System Dynamics approach. It simulates the investment and shutdown decisions made by market players considering their imperfect behaviours. Main results show that the capacity market solves the adequacy issue at a lower cost than the strategic reserve mechanism.
156

Modélisation et étude de la capacité du canal pour un système multi-antennes avancé exploitant la diversité de polarisation

Prayongpun, Nuttapol 29 April 2009 (has links) (PDF)
Depuis quelques années, il y a une exigence accrue quant à la rapidité de transferts d'information, notamment, en raison de la généralisation des applications multimédia sur le système de communication sans fil. Pour y remédier, les chercheurs du laboratoire Bell en 1996 ont proposé une technique d'emploi simultané de réseaux d'antennes en émission et en réception (MIMO). Le canal MIMO est alors constitué par un ensemble de sous-canaux. Grâce à cette technique, le débit et la qualité de transmission peuvent être améliorés sans augmenter la puissance de transmission et la bande passante supplémentaires. Cependant, les gains obtenus par ce système peuvent se diminuer en raison de la corrélation entre les sous-canaux du canal MIMO, en particulier, si la séparation entre antennes est limitée et l'étalement angulaire est étroit. Donc, l'objectif des travaux réalisés dans le cadre de cette thèse est de proposer un système MIMO à diversité de polarisation qui permet de réduire la corrélation entre les sous-canaux et en même temps de miniaturiser la taille des réseaux d'antennes. <br /> Le travail présenté dans cette thèse est d'abord consacré à la caractérisation et à la modélisation du canal de transmission compte tenu des diverses composantes de polarisation des antennes à trois dimensions. Est traitée également l'étude comparative de la capacité de deux types de systèmes de communication multi-antennes. D'une part, il s'agit du système de communication multi-antennes à polarisation unique : dans ce système, sont exploités des antennes ayant les mêmes polarisations. D'autre part, sont examinés les systèmes à polarisation multiple, à savoir, les systèmes MIMO à double polarisation, à triple polarisation et à sextuple polarisation.
157

Analyse tridimensionnelle des champs électriques et magnétiques par la méthode des éléments finis

Coulomb, Jean-Louis 24 June 1981 (has links) (PDF)
Ce mémoire traite de la modélisation tridimensionnelle des champs électriques et des champs magnétiques par la méthode des éléments finis. <br />Le premier chapitre consacré à l'étude des problèmes scalaires comporte, outre la formulation scalaire, une analyse exhaustive de l'application de cette formulation à la détermination directe des grandeurs intégrales. Les flux, les capacités et les inductances sont calculés à l'aide de la notion de co-énergie. L'évaluation des forces et couples fait appel au principe des travaux virtuels. La philosophie dégagée de cette méthodologie, nous a amené à imaginer une méthode d'évaluation de l'influence des paramètres géométriques et physiques sur les grandeurs intégrales.<br />Dans le deuxième chapitre nous étudions la formulation variationnelle des problèmes de magnétostatique dans lesquels le champ dérive d'un potentiel vecteur. Les conditions aux limites sont l'objet d'une attention particulière. Le problème de l'unicité de la solution est résolu en introduisant une formulation variationnelle qui utilise le principe de pénalité. Cette formulation est développée à la fois en coordonnées cartésiennes et cylindriques : ces dernières sont particulièrement bien adaptées à l'étude des machines tournantes. Bien entendu l'application de cette formulation au calcul des grandeurs intégrales découle de la méthode directe décrite dans le premier chapitre.<br />Dans le troisième chapitre, nous abordons l'étude de l'organisation générale des logiciels de calcul des champs. Nous proposons une structure de logiciel qui permette, en bidimensionnel comme en tridimensionnel, d'aborder les problèmes d'optimisation automatique ou assistée dans les meilleures conditions.
158

Développement de bolomètre refroidi à 0,1 K pour une détection X dans la gamme 100 eV – 10 keV

Aliane, Abdelkader 12 February 2009 (has links) (PDF)
Les missions d'astronomie X de nouvelle génération (IXO par exemple) sont à l'étude. Ces missions seront équipées de miroirs X de grande surface effective, à bande passante étendue vers les hautes énergies et à haute résolution angulaire. Ceci implique l'utilisation au plan focal de détecteurs spectro-imageurs de performances en rapport, améliorés en terme de taux de comptage, de bande passante en énergie et de résolution spectrale par rapport aux CCDs qui constituent la base des instruments actuels. Le travail réalisé dans cette thèse consiste en l'extrapolation à la détection X de matrices de bolomètres IR déjà développées au LETI pour la mission spatiale HERSCHEL. Les études réalisées ont consisté à adapter l'impédance des senseurs silicium à la mesure des signaux impulsionnels engendrés par des interactions X avec le détecteur, à réaliser des matrices d'absorbeurs pixellisés sur poignée silicium à partir de microfeuilles de tantale (Ta) qui ont été traitées et fournies par des laboratoires en collaboration avec le LETI. Nous avons validé une technologie de report de ces matrices absorbeur sur matrices senseur par hybridation par bille d'indium. Nous avons optimisé l'hybridation en terme de capacité calorifique. Nous avons réussi à réaliser un prototype de matrice 8 x 8 pixels libérés et hybridés. Tous les procédés technologiques mis en point sont collectifs et extrapolables à des matrices de grandes dimensions (32 X 32 pixels).
159

Etude de nano-systèmes électro-mécaniques (NEMS) à base de nanotubes de carbone pour applications hyperfréquences

Ricart, Thibault 18 December 2008 (has links) (PDF)
Depuis la découverte des nanotubes de carbone en 1991 par Sumio Iijima et de leurs fascinantes caractéristiques électriques et mécaniques, de nombreuses études ont visé leurs utilisations dans toutes sortes d'applications et notamment en électronique. Ainsi, nous avons proposé d'axer nos travaux de recherche vers l'utilisation de nanotubes de carbone, de part leurs propriétés mécaniques et électriques exceptionnelles, pour la réalisation de fonctions électromécaniques pour des applications hyperfréquences (RF-NEMS). Une première partie de nos travaux a ainsi été dédiée à l'étude des propriétés des nanotubes de carbone et des architectures de composants pouvant potentiellement conduire à des composants RF-NEMS aux performances et fonctionnalités augmentées. La seconde partie de nos travaux a ainsi porté sur le développement de méthodes de modélisation et de protocoles de conception spécifiquement adaptés aux échelles et aux caractères multi physiques des composants. Un logiciel développé nous a ainsi permis de concevoir et de prédire les performances d'une capacité variable à base de nanotubes de carbone, dont nous avons démontré la viabilité contournant ainsi la forte résistance présenté par un nanotube unitaire, verrou actuel de cette technologie. Enfin, nous avons proposé les architectures de fonctions hyperfréquences plus complexes telle qu'un déphaseur accordable dont les performances, prédites par les outils que nous avons mis en place, démontrant l'attrait des nanotubes de carbone pour la réalisation de fonctions d'accord évoluées et performantes, avec un fort potentiel attendu au niveau de temps de réaction (se situant dans le domaine de la nanoseconde).
160

Capacité d'absorption technologique et dynamique de productivité. Application au Kazakhstan

Dosmagambet, Yergali 25 June 2008 (has links) (PDF)
Une nouvelle spécification de la distance à la frontière est proposée en termes de barrières à l'adoption dans la diffusion technologique de Nelson-Phelps. Des coûts élevés liés à l'adoption technologique limitent le processus de rattrapage de la frontière mondiale. La nouvelle forme de la productivité, renforcée par l'évidence empirique, permet de modéliser les régimes multiples de convergence vers les points stationnaires. La performance impressionnante de l'Asie du sud montre qu'il existe un lien fort entre une augmentation de la force de travail avec une éducation professionnelle (V) par rapport à celle avec une éducation générale (G) et leur somme (taille de l'éducation secondaire). La littérature récente présente une évidence empirique mentionnant la tendance à la hausse du ratio de l'éducation professionnelle à l'éducation générale aux pays avec les revenus moyens. Cela renforce considérablement l'importance de l'éducation secondaire dans l'adoption technologique et permettrait d'appliquer la théorie de la croissance moderne aux pays en transition. Un modèle est proposé en vue d'analyser les interrelations entre le ratio (V/G) et la taille de l'éducation secondaire et les directions dans lesquelles ils interagissent. Finalement, le concept de Lucas est revisité pour montrer que l'éducation secondaire s'ajuste à l'adoption technologique. Par conséquent, le ratio V/G pourrait être utilisé à la place du taux de scolarisation secondaire dans le modèle de Nelson-Phelps afin de rétablir les liens avec la productivité dans les recherches empiriques. Un potentiel de rattrapage à long terme est analysé avec un modèle d'équilibre général pour le Kazakhstan. Ainsi, la croissance du progrès technique, mesuré en termes des barrières à l'adoption technologique, montre que l'économie, tout d'abord, converge vers le premier point stationnaire, déterminé de façon endogène par l'interaction entre les barrières à l'adoption technologique avec la productivité.

Page generated in 0.0679 seconds