• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 38
  • 12
  • 5
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 119
  • 73
  • 20
  • 16
  • 16
  • 15
  • 14
  • 13
  • 13
  • 13
  • 11
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Aviseurs indépendants pour les entreprises de camionnage dans le contexte des bourses de fret

Ghita, Stela January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
22

Analyse statique pour l’optimisation des mises à jour de documents XML temporels / Static analysis for optimizing the update of large temporal XML documents

Baazizi, Mohamed-Amine 07 September 2012 (has links)
Ces dernières années ont été marquées par l’adoption en masse de XML comme format d’échange et de représentation des données stockées sur le web. Cette évolution s’est accompagnée du développement de langages pour l’interrogation et la manipulation des données XML et de la mise en œuvre de plusieurs systèmes pour le stockage et le traitement des ces dernières. Parmi ces systèmes, les moteurs mémoire centrale ont été développés pour faire face à des besoins spécifiques d’applications qui ne nécessitant pas les fonctionnalités avancées des SGBD traditionnels. Ces moteurs offrent les mêmes fonctionnalités que les systèmes traditionnels sauf que contrairement à ces derniers, ils nécessitent de charger entièrement les documents en mémoire centrale pour pouvoir les traiter. Par conséquent, ces systèmes sont limités quant à la taille des documents pouvant être traités. Dans cette thèse nous nous intéressons aux aspects liés à l’évolution des données XML et à la gestion de la dimension temporelle de celles-ci. Cette thèse comprend deux parties ayant comme objectif commun le développement de méthodes efficaces pour le traitement des documents XML volumineux en utilisant les moteurs mémoire centrale. Dans la première partie nous nous focalisons sur la mise à jour des documents XML statiques. Nous proposons une technique d’optimisation basée sur la projection XML et sur l’utilisation des schémas. La projection est une méthode qui a été proposée dans le cadre des requêtes afin de résoudre les limitations des moteurs mémoire centrale. Son utilisation pour le cas des mises à jour soulève de nouveaux problèmes liés notamment à la propagation des effets des mises à jour. La deuxième partie est consacrée à la construction et à la maintenance des documents temporels, toujours sous la contrainte d’espace. A cette contrainte s’ajoute la nécessité de générer des documents efficaces du point de vue du stockage. Notre contribution consiste en deux méthodes. La première méthode s’applique dans le cas général pour lequel aucune information n’est utilisée pour la construction des documents temporels. Cette méthode est conçue pour être réalisée en streaming et permet ainsi le traitement de document quasiment sans limite de taille. La deuxième méthode s’applique dans le cas où les changements sont spécifiés par des mises à jour. Elle utilise le paradigme de projection ce qui lui permet en outre de manipuler des documents volumineux de générer des documents temporels satisfaisant du point de vue du stockage. / The last decade has witnessed a rapid expansion of XML as a format for representing and exchanging data through the web. In order to follow this evolution, many languages have been proposed to query, update or transform XML documents. At the same time, a range set of systems allowing to store and process XML documents have been developed. Among these systems, main-memory engines are lightweight systems that are the favored choice for applications that do not require complex functionalities of traditional DBMS such as transaction management and secondary storage indexes. These engines require to loading the documents to be processed entirely into main-memory. Consequently, they suffer from space limitations and are not able to process quite large documents. In this thesis, we investigate issues related to the evolution of XML documents and to the management of the temporal dimension for XML. This thesis consists of two parts sharing the common goal of developing efficient techniques for processing large XML documents using main-memory engines. The first part investigates the optimization of update for static XML documents. We have developed a technique based on XML projection, a method that has been proposed to overcome the limitations of main-memory engines in the case of querying. We have devised for a new scenario for projection allowing the propagation of the updates effects. The second of the thesis investigates building and maintaining time-stamped XML documents under space limitations. Our contribution consists in two methods. The first method can be applied in the general case where no restriction is made on the evolution of the XML documents. This method is designed to be performed in streaming and allows thus processing large documents. The second method deals with the case where the changes are specified by updates. It is based on the projection paradigm which it allows it for processing large documents and for generating time-stamped documents satisfactory from the point of view of storage. We provide a means to comparing time-stamped wrt space occupancy.
23

Le roman de Guillaume d'Orange de la tradition cyclique à la mise en prose

Abd-elrazak, Loula January 2003 (has links)
No description available.
24

Probabilistic machine learning for circular statistics : models and inference using the multivariate Generalised von Mises distribution

Wu Navarro, Alexandre Khae January 2018 (has links)
Probabilistic machine learning and circular statistics—the branch of statistics concerned with data as angles and directions—are two research communities that have grown mostly in isolation from one another. On the one hand, probabilistic machine learning community has developed powerful frameworks for problems whose data lives on Euclidean spaces, such as Gaussian Processes, but have generally neglected other topologies studied by circular statistics. On the other hand, the approximate inference frameworks from probabilistic machine learning have only recently started to the circular statistics landscape. This thesis intends to redress the gap between these two fields by contributing to both fields with models and approximate inference algorithms. In particular, we introduce the multivariate Generalised von Mises distribution (mGvM), which allows the use of kernels in circular statistics akin to Gaussian Processes, and an augmented representation. These models account for a vast number of applications comprising both latent variable modelling and regression of circular data. Then, we propose methods to conduct approximate inference on these models. In particular, we investigate the use of Variational Inference, Expectation Propagation and Markov chain Monte Carlo methods. The variational inference route taken was a mean field approach to efficiently leverage the mGvM tractable conditionals and create a baseline for comparison with other methods. Then, an Expectation Propagation approach is presented drawing on the Expectation Consistent Framework for Ising models and connecting the approximations used to the augmented model presented. In the final MCMC chapter, efficient Gibbs and Hamiltonian Monte Carlo samplers are derived for the mGvM and the augmented model.
25

Powering of endoscopic cutting tools for minimally invasive procedures

Chen, Kehui 11 June 2013 (has links)
" Sample cutting is an important minimally invasive medical procedure. Currently there are several types of medical devices used to cut a distal biological sample, for example, a video endoscope and TurboHawk Plaque Excision Systems. Directional Atherectomy (DA) with the TurboHawk Plaque Excision Systems is a catheter-based, minimally invasive treatment method for peripheral arterial disease (PAD). During a procedure, a catheter is directed toward an area of plaque buildup to remove the plaque from the body, restoring blood flow (Covidien, 2013). Endoscopy is an important procedure used in the medical field to study and diagnose different parts of a body without the need to undergo a major surgery. The major devices are a video endoscope with a flexible or rigid insertion tube and endoscopic therapy devices. Arrays of the devices, through the instrument channel in the insertion tube of endoscopes, to perform a variety of functions are offered. The biological sample cut is one of the important endoscopic therapies. Both of Directional Atherectomy and endoscopy procedures require a power transmission from the proximal tip of device to the distal end, where the cutter is located, for cutting a sample. However, the working length is up to meters, and the diameter of the devices is in millimeter scale in the minimally invasive surgery. Thus enough power transmitting to the distal end of the device for the biological sample cutting is crucial. This research presents the effort toward the investigation of the potential power mechanisms from the proximal tip to the cutter at the distal end of the device for rapid rotational cutting motion to improve the cutting efficiency and accuracy. In this thesis, the potential powering mechanisms including fluid, electrical, and torque coils are investigated. Since the transmission power is used for a rotational cutting action, and the cutting geometry has influence on the cutting power, thus this research also focuses on the analysis of the cutting geometry for the rotational sample cutting. The Hertz contact theory and von Mises yield criterion are used to find the influence of tool geometry on the material removing process, as well as Abaqus, a commercial FEM software, is used for the finite element analysis. Fiber-reinforced composite structures are the main characteristic of the representative biological sample, and their mechanical behavior is strongly influenced by the concentration and structural arrangement of constitute such as collagen and elastin. Researches show that the biological sample, for example, a soft biological sample, has hyperelastic properties and behave anisotropically, and there are a few publications about the plastic properties and cutting mechanics. Thus a linear elastic and linear plastic material model is defined for the finite element analysis of material removal. The analytical results and finite element results both show that as the tool rake angle increases or the tool angle decreases, the magnitude of cutting force decreases. A preliminary representative sample cutting experiment was conducted, and standard cutters with different cutting geometries were tested in order to find the characteristic of the biological sample cutting and the influence of tool geometry on the required cutting power. The experiments reveal the same conclusions as the analytical and finite element results. "
26

Liberdade e utilidade : as razões do mercado na obra de Ludwig von Mises

Araújo, Sandro Alves de January 2017 (has links)
O mercado é um sistema de cooperação social baseado em transações voluntárias, este sistema abrange uma estrutura institucional (propriedade, contrato, Estado), uma dimensão epistêmica (cálculo econômico, preço e valor) e um complexo motivacional (lucro, auto-interesse, diminuição do desconforto). O mercado, portanto, é um dos temas centrais na obra de Ludwig von Mises. A partir deste pressuposto, o problema de pesquisa é: quais são os fatores que fundamentam o mercado em Ludwig von Mises? Incidindo sobre estas dimensões do mercado temos a influência da liberdade e/ou da utilidade na sua formação. Assim, pretende-se saber se o mercado tem sua fundamentação na liberdade, pois é, segundo Ludwig von Mises, o lugar onde o indivíduo é livre para escolher; ou na utilidade, pois propicia a melhor forma conhecida de organização social com os melhores benefícios possíveis. A conclusão é a de que, tanto o conceito de liberdade, quanto o de utilidade são necessários para a construção do conceito de mercado na sua teoria. Foi utilizado o método sistemático de análise conceitual. / The market is a system of social cooperation in voluntary transactions, this system covers an institutional structure, an epistemic dimension (economic calculation, price and value) and a motivational complex (profit, self-interest, decrease in discomfort). The market, therefore, is one of the central themes in the work of Ludwig von Mises. From this assumption, the research problem is: what are the factors that underpin the market in Ludwig von Mises? Focusing on these dimensions of the market has an influence of freedom and / or utility in their training. Thus, knowing whether the market has its foundation in freedom, for it is, according to Ludwig von Mises, the place where the individual is free to choose; Or utility, because it provides a better known form of social organization with the best possible resources. The conclusion is that both the concept of freedom and utility are necessary for the construction of the concept of the market in its theory. The systematic method of conceptual analysis was used.
27

Effective Properties of Randomly Oriented Kenaf Short Fiber Reinforced Epoxy Composite

L., Dayakar Naik 01 May 2015 (has links)
Natural fibers have drawn attention of researchers as an environmentally-friendly alternative to synthetic fibers. Developing natural fiber reinforced bio-composites are a viable alternative to the problems of non-degrading and energy consuming synthetic composites. This study focuses on (i) the application of kenaf fiber as a potential reinforcement and, (ii) determining the tensile properties of the randomly oriented short kenaf fiber composite both experimentally and numerically. Kenaf fiber micro-structure and its Young's modulus with varying gage length (10, 15, 20, and 25.4 mm) were investigated. The variation in tensile strength of kenaf fibers was analyzed using the Weibull probability distribution function. It was observed that the Young's modulus of kenaf fiber increased with increase in gage length. Fabrication of randomly oriented short kenaf fiber using vacuum bagging techniques and hand-lay-up techniques were discussed and the tensile properties of the specimens were obtained experimentally. The tensile modulus of the composite sample at 22% fiber volume fraction was found to be 6.48 GPa and tensile strength varied from 20 to 38 MPa. Numerical models based on the micro mechanics concepts in conjunction with finite element methods were developed for predicting the composite properties. A two-step homogenization procedure was developed to evaluate the elastic constants at the cell wall level and the meso-scale level respectively. Von-Mises Fisher probability distribution function was applied to model the random orientation distribution of fibers and obtain equivalent modulus of composite. The predicted equivalent modulus through numerical homogenization was in good agreement with the experimental results.
28

Application de la théorie de l'analyse limite aux milieux isotropes et othotropes de révolution.

Pastor, Joseph 05 May 1983 (has links) (PDF)
Analyse limite : formulations analytique et numérique avec application aux structures en géotechnique, pour les milieux isotropes et orthotropes de révolution.
29

M��thode de Partitionnement pour le traitement distribu�� et parall��le de donn��es XML.

Malla, Noor 21 September 2012 (has links) (PDF)
Durant cette derni��re d��cennie, la diffusion du format XML pour repr��senter les donn��es g��n��r��es par et ��chang��es sur le Web a ��t�� accompagn��e par la mise en ��uvre de nombreux moteurs d'��valuation de requ��tes et de mises �� jour XQuery. Parmi ces moteurs, les syst��mes " m��moire centrale " (Main-memory Systems) jouent un r��le tr��s important dans de nombreuses applications. La gestion et l'int��gration de ces syst��mes dans des environnements de programmation sont tr��s faciles. Cependant, ces syst��mes ont des probl��mes de passage �� l'��chelle puisqu'ils requi��rent le chargement complet des documents en m��moire centrale avant traitement.Cette th��se pr��sente une technique de partitionnement des documents XML qui permet aux moteurs " m��moire principale " d'��valuer des expressions XQuery (requ��tes et mises �� jour) pour des documents de tr��s grandes tailles. Cette m��thode de partitionnement s'applique �� une classe de requ��tes et mises �� jour pertinentes et fr��quentes, dites requ��tes et mises �� jour it��ratives.Cette th��se propose une technique d'analyse statique pour reconna��tre les expressions " it��ratives ". Cette analyse statique est bas��e sur l'extraction de chemins �� partir de l'expression XQuery, sans utilisation d'information suppl��mentaire sur le sch��ma. Des algorithmes sont sp��cifi��s, utilisant les chemins extraits par l'��tape pr��c��dente, pour partitionner les documents en entr��e en plusieurs parties, de sorte que la requ��te ou la mise �� jour peut ��tre ��valu��e sur chaque partie s��par��ment afin de calculer le r��sultat final par simple concat��nation des r��sultats obtenus pour chaque partie. Ces algorithmes sont mis en ��uvre en " streaming " et leur efficacit�� est valid��e exp��rimentalement.En plus, cette m��thode de partitionnement est caract��ris��e ��galement par le fait qu'elle peut ��tre facilement impl��ment��e en utilisant le paradigme MapReduce, permettant ainsi d'��valuer une requ��te ou une mise �� jour en parall��le sur les donn��es partitionn��es.
30

Analyse statique pour l'optimisation des mises à jour de documents XML temporels

Baazizi, Mohamed-Amine 07 September 2012 (has links) (PDF)
Ces dernières années ont été marquées par l'adoption en masse de XML comme format d'échange et de représentation des données stockées sur le web. Cette évolution s'est accompagnée du développement de langages pour l'interrogation et la manipulation des données XML et de la mise en œuvre de plusieurs systèmes pour le stockage et le traitement des ces dernières. Parmi ces systèmes, les moteurs mémoire centrale ont été développés pour faire face à des besoins spécifiques d'applications qui ne nécessitant pas les fonctionnalités avancées des SGBD traditionnels. Ces moteurs offrent les mêmes fonctionnalités que les systèmes traditionnels sauf que contrairement à ces derniers, ils nécessitent de charger entièrement les documents en mémoire centrale pour pouvoir les traiter. Par conséquent, ces systèmes sont limités quant à la taille des documents pouvant être traités. Dans cette thèse nous nous intéressons aux aspects liés à l'évolution des données XML et à la gestion de la dimension temporelle de celles-ci. Cette thèse comprend deux parties ayant comme objectif commun le développement de méthodes efficaces pour le traitement des documents XML volumineux en utilisant les moteurs mémoire centrale. Dans la première partie nous nous focalisons sur la mise à jour des documents XML statiques. Nous proposons une technique d'optimisation basée sur la projection XML et sur l'utilisation des schémas. La projection est une méthode qui a été proposée dans le cadre des requêtes afin de résoudre les limitations des moteurs mémoire centrale. Son utilisation pour le cas des mises à jour soulève de nouveaux problèmes liés notamment à la propagation des effets des mises à jour. La deuxième partie est consacrée à la construction et à la maintenance des documents temporels, toujours sous la contrainte d'espace. A cette contrainte s'ajoute la nécessité de générer des documents efficaces du point de vue du stockage. Notre contribution consiste en deux méthodes. La première méthode s'applique dans le cas général pour lequel aucune information n'est utilisée pour la construction des documents temporels. Cette méthode est conçue pour être réalisée en streaming et permet ainsi le traitement de document quasiment sans limite de taille. La deuxième méthode s'applique dans le cas où les changements sont spécifiés par des mises à jour. Elle utilise le paradigme de projection ce qui lui permet en outre de manipuler des documents volumineux de générer des documents temporels satisfaisant du point de vue du stockage.

Page generated in 0.0328 seconds