• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 311
  • 106
  • 32
  • 1
  • Tagged with
  • 451
  • 155
  • 83
  • 77
  • 69
  • 62
  • 61
  • 48
  • 41
  • 38
  • 38
  • 34
  • 34
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Développement d'une horloge atomique sur puce à atomes : optimisation de la durée de cohérence et caractérisation préliminaire.

Lacroûte, Clément 29 January 2010 (has links) (PDF)
Nous décrivons la construction et la caractérisation préliminaire d'une horloge atomique sur puce à atomes, visant une stabilité de quelques 10-13 à 1s. La transition d'horloge est définie par la transition micro-onde à deux photons entre les niveaux |F=1,mF=-1> et |F=2,mF=1> du 87Rb, qui peuvent être piégés magnétiquement. Une puce à atomes permet de générer le piège magnétique et de refroidir les atomes par évaporation forcée à une température de quelques centaines de nK, pouvant atteindre la température de condensation de Bose-Einstein. Le signal micro-onde de spectroscopie est couplé aux atomes à l'aide d'un guide d'onde coplanaire intégré à la puce ; l'ensemble du cycle d'horloge est donc effectué dans un volume réduit de (5 cm)3. Nous décrivons tout d'abord le dispositif expérimental permettant de mettre en oeuvre l'ensemble du cycle d'horloge, et notamment le banc optique développé et caractérisé dans le cadre de cette thèse. Nous présentons ensuite les résultats obtenus en terme de refroidissement atomique, qui se traduisent par l'obtention de condensats de Bose-Einstein de 3 104 atomes. Nous présentons enfin les résultats obtenus par spectroscopie de Ramsey de la transition d'horloge. Nous mesurons une durée de cohérence supérieure à 10 secondes, dominée par les pertes atomiques et non par le déphasage introduit par le piège magnétique, comme on aurait pu s'y attendre. Avec une durée de Ramsey de 3 secondes, la première évaluation de la stabilité de l'horloge donne 6 10-12 à 1 s, limitée par le bruit technique du dispositif. L'objectif est d'atteindre une stabilité de l'ordre de 10-13 à 1s, meilleure que celle des horloges commerciales actuelles.
252

SELECTA : une approche de construction d'applications par composition de services.

Dieng, Idrissa Abdoulaye 31 May 2010 (has links) (PDF)
On appelle composition le mécanisme permettant la réalisation d'applications logicielles par intégration de services. Les applications à service exigeant souvent des propriétés telles que la sélection dynamique ou non déterministe des services, le concept d'application doit être défini différemment, et le processus de composition est très difficile à réaliser manuellement. Le processus de composition devrait être automatisé par des outils et des environnements logiciels. Ces outils devraient permettre d'une part la construction d'applications flexibles et d'autre part garantir la cohérence et la complétude de la composition. Cette thèse s'intéresse à la construction d'applications depuis leur conception jusqu'à leur exécution. Dans cette thèse, nous proposons une approche de composition de services et un prototype nommé SELECTA permettant de répondre aux besoins et aux défis de la composition de services, tels que l'augmentation du niveau d'abstraction de la spécification de la composition, la construction incrémentale de composites, la gestion de la cohérence et de la complétude de composites, la définition de langages de contraintes de services ou d'algorithmes de sélection de services.
253

Le changement de logique de la protection sociale des sans emploi en Union européenne : de l'aide au revenu à la réintégration sur le marché du travail

Julien, Reysz 25 May 2010 (has links) (PDF)
La crise du modèle fordiste d'emploi et de protection sociale au début des années 80 a induit une redéfinition des fonctions de la protection sociale qui est passée d'une vocation redistributive à un objectif de réinsertion professionnelle. Basés sur le principe d'aide au revenu, les systèmes sociaux européens se sont alors orientés vers la réintégration en emploi des sans emploi. La protection sociale devient ainsi un instrument au service de l'emploi et du marché du travail. Cette évolution commune des systèmes vers l'application des principes d'une protection sociale plus active ne s'est pas traduite de la même façon dans chaque pays de l'UE : s'il y a bien eu convergence des modèles, celle-ci ne s'est pas fondamentalement accompagnée d'une remise en cause des principes culturels et des fondements historiques et institutionnels propres à chaque système. Ce changement de logique s'est toutefois accompagné d'un renforcement des contraintes pesant sur les sans emploi : les prestations sociales sont en effet de plus en plus versées sous condition de respect d'une obligation de recherche active d'un travail et d'acceptation d'un emploi. L'affaiblissement de la fonction d'aide au revenu au profit d'une fonction de réintégration dans l'emploi se traduit donc par un glissement des systèmes de protection sociale vers le modèle du workfare anglo-américain.
254

Représentation et reconnaissance d'objets par champs réceptifs

Colin De Verdière, Vincent 10 December 1999 (has links) (PDF)
Cette thèse se place dans le domaine de la modélisation et de la reconnaissance d'objets par leur apparence. Chaque objet est modélisé par une collection d'images et la reconnaissance est obtenue par l'appariement d'une nouvelle image avec une image modèle. Les images sont modélisées par des mesures sur des caractéristiques locales. Plusieurs bases de descripteurs locaux sont évaluées théoriquement et expérimentalement et la base des dérivées de Gaussiennes est sélectionnée pour ses propriétés de discriminabilité avec une description très concise et son paramétrage en orientation et en échelle. Une invariance à l'orientation de la caméra par rapport à l'objet est obtenue par un calage des dérivées sur la direction du gradient et une invariance à l'échelle est obtenue par une technique novatrice qui consiste à sélectionner en chaque point une échelle caractéristique pour décrire son voisinage. Cette échelle caractéristique correspond au maximum en échelle d'un opérateur Laplacien. Ces invariances sont validées par des expérimentations systématiques. Dans notre système, une image est décomposée en une grille de fenêtres recouvrantes puis représentée par une grille de descripteurs locaux calculés sur ces fenêtres. Cette représentation très redondante nous a permis de définir deux stratégies de reconnaissance robustes~: l'une fondée sur un vote et l'autre fondée sur une stratégie par prédiction--vérification qui consiste à découper la reconnaissance en une phase de génération d'hypothèses d'appariement pour une fenêtre suivi d'une phase de vérification de ces hypothèses sur les fenêtres voisines en incluant des contraintes de cohérence spatiale à cette vérification.
255

Reconnaissance et modélisation d'objets 3D à l'aide d'invariants projectifs et affines

Lamiroy, Bart 08 July 1998 (has links) (PDF)
Le travail de cette thèse s'inscrit dans le cadre de la modélisation et de la reconnaissance d'objets par leur apparence et par des descripteurs locaux. Nous partons, dans une première partie de cette thèse, d'images d'où sont extraits des contours puis des segments approchant ces derniers. À partir de ces segments, nous calculons des descripteurs locaux, appelés quasi-invariants, qui ont la particularité d'être très stables par rapport à des changements modérés de point de vue. En stockant ces quasi-invariants dans une structure adaptée, et en modélisant un objet 3D par un ensemble limité de vues 2D, nous montrons qu'il est possible de reconnaître des objets sous tout angle de vue. La reconnaissance est obtenue en deux étapes. D'abord les quasi-invariants locaux entre image et modèles sont mis en correspondance en utilisant une méthode d'indexation. Ensuite, une vérification globale exprimant une cohérence géométrique permet de filtrer des appariements erronés et de sélectionner le modèle le plus semblable à l'image. Constatant des faiblesses dans l'extraction et dans le pouvoir discriminant des descripteurs initiaux, nous étendons ensuite notre approche pour fournir une méthode d'intégration avec toute une classe de méthodes locales existantes. Les résultats expérimentaux fournis par cette extension forment une validation complète de notre travail. Dans un deuxième temps, nous analysons le problème de la complexité algorithmique soulevé par le genre d'approches utilisées. En effet, nous montrons formellement que certaines méthodes d'indexation sont très mal adaptées à la reconnaissance par descripteurs locaux dès lors que ces descripteurs évoluent dans un espace de dimension élevée. La complexité est telle, que, dans certains cas, elle peut dépasser celle d'une comparaison séquentielle de tous les modèles et leurs descripteurs. Nous montrons quels sont ces cas, et ce qui peut être fait pour les éviter.
256

Opérations booléennes sur les polyèdres représentés par leurs frontières et imprécisions numériques

Benouamer, Mohand Ourabah 08 July 1993 (has links) (PDF)
Les progrès enregistrés en modélisation solide ont beaucoup contribué à l'essor des diverses applications de la CAO/FAO, de la robotique et de la synthèse d'images. Les systèmes de modélisation solide contemporains combinent souvent la représentation par arbre de construction et la représentation par frontière afin de mieux répondre aux besoins des applications. Dans cette thèse nous proposons une nouvelle méthode de calcul de la frontière d'un objet polyédrique décrit par un arbre de construction, qui traite uniformément les nombreux cas particuliers et qui résout le problème crucial des imprécisions numériques inhérentes à l'arithmétique flottante. Une implantation utilisant une arithmétique rationnelle optimisée est présentée ainsi que des résultats de tests.
257

Normer pour mieux varier ? La différenciation comportementale par les normes, et son application au trafic dans les simulateurs de conduite

Lacroix, Benoît 01 October 2009 (has links) (PDF)
Les simulateurs de conduite sont utilisées par l'industrie automobile pour le développement de systèmes d'aide à la conduite, des études d'ergonomie, de design, ou encore du comportement des conducteurs. L'objectif est d'améliorer la sécurité des véhicules, et de réduire coûts et délais des projets. Dans les simulateurs, le conducteur évolue dans un trafic simulé dont le réalisme est crucial pour la validité des résultats : les réactions d'un conducteur sont d'autant plus correctes qu'il perçoit l'environnement comme réel. Dans les approches centrées individu, comme ici le trafic, un des critères important pour le réalisme est la variété comportementale des agents. De plus, les comportements doivent également être cohérents : l'apparition de situations aberrantes est très pénalisante pour l'immersion. Cependant, ces deux aspects ne sont généralement pas pris en compte simultanément. Dans ce travail, nous nous sommes donc intéressés à la question suivante : dans les approches centrées individus, augmenter la variété des comportements des agents tout en préservant leur cohérence améliore-t-il le réalisme ? Par ailleurs, le contexte industriel des travaux, effectués en convention Cifre chez Renault, impliquait des besoins spécifiques : il fallait concevoir un outil qui permette à la fois aux experts de spécifier des comportements variés et cohérents, et aux utilisateurs finaux de les exploiter facilement. Nous proposons dans ce travail un modèle de différenciation comportementale, qui se décline en un outil dont les principaux apports sont d'être générique, non-intrusif, et de permettre une conception en dehors de l'agent. Le modèle s'articule selon trois axes. Tout d'abord, il décrit les comportements des agents par des normes. Celles-ci fournissent un profil comportemental à la conception, et un contrôle de la conformitéà l'exécution. Ensuite, le processus de génération des comportements permet d'autoriser la création d'agents déviants ou en violation. Il influe pour cela sur le déterminisme du mécanisme. Enfin, les normes peuvent être inférées à partir de simulations enregistrées ou de situations réelles, afin d'analyser les résultats des expérimentations et d'automatiser la configuration du modèle. Nous avons appliqué cet outil à la simulation de trafic dans scaner, l'application développée et utilisée par le Centre Technique de Simulation de Renault pour ses simulateurs de conduite. Les modules logiciels développés au cours de la thèse introduisent dans le trafic des styles de conduite spécifiés sous forme de normes, par exemple des conducteurs prudents ou agressifs. Ils permettent ensuite de peupler l'environnement de manière automatisée, et de faire évoluer facilement les scénarios existants. Ces développements sont d'ores et déjà intégrés dans la version commerciale de l'application. Au delà de l'amélioration subjective du réalisme, les expérimentations réalisées démontrent les apports de l'outil sur la variété et la représentativité des comportements obtenus.
258

Processus cohérents et applications des phénomènes de lumière lente et rapide dans l'hélium métastable à température ambiante

Lauprêtre, Thomas 23 December 2012 (has links) (PDF)
L'interaction entre des champs électromagnétiques et des systèmes à plusieurs niveaux peut donner lieu à différents processus cohérents. La transparence électromagnétiquement induite (EIT) ou les oscillations cohérentes de populations (CPO) sont des phénomènes résonnants ayant pour conséquence d'annuler l'absorption du système pour un champ sonde. L'EIT se produit dans les systèmes à trois niveaux et met en jeu une cohérence entre niveaux non couplés optiquement, alors que les systèmes à deux niveaux suffisent pour faire apparaître le CPO qui ne met pas en jeu la dynamique des cohérences.Il est possible dans un milieu constitué d'atomes d'hélium métastable à température ambiante d'extraire un système à trois niveaux en Λ qui, lorsqu'il est excité par des polarisations circulaires, fait apparaître des fenêtres EIT de l'ordre de quelques dizaines de kHz de large. Lorsque ce système est excité par des polarisations linéaires et soumis à un champ magnétique de faible amplitude, c'est l'association des deux phénomènes de CPO et d'EIT qui détermine la réponse du système. Une fenêtre de transparence CPO de quelques dizaines de kHz de large a en particulier été observée.Ce type de phénomènes résonnants est associé à de grandes variations de l'indice de réfraction avec la fréquence du champ sonde, ayant pour conséquence de profondes modifications de la vitesse de groupe d'une impulsion se propageant dans le milieu. Notre système expérimental permet ainsi d'observer de la lumière lente, de la lumière rapide ainsi que des vitesses de groupe négatives. L'insertion de tels milieux dispersifs en cavité optique a été suggérée pour augmenter la précision de senseurs comme les gyroscopes lasers, mais leur bruit fondamental dépend de la durée de vie des photons dans la cavité. C'est pourquoi l'influence des milieux hautement dispersifs sur la durée de vie des photons dans une cavité est étudiée expérimentalement et théoriquement.
259

Tomographie de cohérence optique plein champ pour l'endoscopie : microscopie in situ et in vivo des tissus biologiques

Latrive, Anne 22 November 2012 (has links) (PDF)
L'imagerie optique biomédicale est confrontée aux phénomènes d'absorption et de diffusion de la lumière par les tissus qui atténuent et brouillent le signal au cours de sa propagation. La Tomographie de Cohérence Optique (OCT) filtre les photons balistiques par interférométrie en lumière temporellement incohérente. En particulier, l'approche Plein Champ atteint une résolution de 1 µm, mais sa profondeur de pénétration ne dépasse pas 1 mm. Il est donc impossible d'imager les organes internes in vivo et in situ : il faut pour cela disposer d'un instrument doté d'un endoscope, ce qui n'avait pas été réalisé à ce jour. Nous proposons un système d'OCT Plein Champ avec endoscope flexible qui repose sur le couplage de deux interféromètres, l'un extérieur à la sonde et l'autre situé à l'extrémité de la sonde en contact avec le tissu. Ainsi la sonde est entièrement passive et le signal interférométrique qui la traverse n'est pas perturbé par l'environnement. Sa flexibilité lui permettrait d'imager des organes internes comme le colon. Cependant l'utilisation d'un faisceau de plusieurs milliers de fibres optiques fait apparaître un signal d'interférence parasite dû aux phénomènes de couplage inter-coeurs et inter-modes. Des solutions sont proposées pour s'en affranchir et permettre l'imagerie d'échantillons de tissus. En imagerie par endoscopie rigide deux systèmes sont comparés, avec un ou deux interféromètres, et une sonde composée de lentilles à gradient d'indice. Cette sonde peut imager directement au contact des zones comme la peau, ou en pénétrant l'organe à la manière d'une aiguille, par exemple dans le sein. Elle est assez performante pour être utilisée in vivo sur la peau.
260

Contribution à la continuité des flux d'informations et de connaissances dans le lien conception-production

Cheutet, Vincent 11 December 2012 (has links) (PDF)
Dans un contexte de la révolution de l'information numérique, les entreprises doivent proposer dans un temps court un système innovant de qualité et à moindre coût, et ce défi ne peut être relevé qu'avec des acteurs qui soient motivés et qui collaborent ensemble. Les présents travaux de recherche visent donc à faciliter cette collaboration et le travail à valeur ajoutée, en contribuant à la continuité des flux d'informations et de connaissances. Au sein du LISMMA, nous avons décliné ces travaux sur trois axes. Le premier axe vise à assurer les flux par l'interopérabilité des systèmes d'information par la médiation et l'unification à base de standards. Le deuxième axe se focalise sur la gestion des connaissances permettant aux flux d'être compris et interprétés par les acteurs. Enfin, nous avons proposé l'utilisation des ontologies pour assurer la cohérence des informations transitant dans les flux. Ces travaux ont donné lieu au développement de démonstrateurs, testés sur des cas industriels et/ou in-situ dans une entreprise.

Page generated in 0.0417 seconds