• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 10
  • 10
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Placement By Marriage

Bian, Huimin 30 July 2008 (has links)
As the field programmable gate array (FPGA) industry grows device capacity with Moore's law and expands its market to high performance computing, scalability of its key CAD algorithms emerges as a new priority to deliver a user experience competitive to parallel processors. Among the many walls to overcome, placement stands out due to its critical impact on both frontend synthesis and backend routing. To construct a scalable placement flow, we present three innovations in detailed placement: a legalizer that works well under low whitespace; a wirelength optimizer based on bipartite matching; and a cache-aware annealer. When applied to the hundred-thousand cell IBM benchmark suite, our detailed placer can achieve 27% better wirelength and 8X faster runtime against FastDP, the fastest academic detailed placer reported, and our full placement flow can achieve 101X faster runtime, with 5% wirelength overhead, against VPR, the de facto standard in FPGA placements.
2

Placement By Marriage

Bian, Huimin 30 July 2008 (has links)
As the field programmable gate array (FPGA) industry grows device capacity with Moore's law and expands its market to high performance computing, scalability of its key CAD algorithms emerges as a new priority to deliver a user experience competitive to parallel processors. Among the many walls to overcome, placement stands out due to its critical impact on both frontend synthesis and backend routing. To construct a scalable placement flow, we present three innovations in detailed placement: a legalizer that works well under low whitespace; a wirelength optimizer based on bipartite matching; and a cache-aware annealer. When applied to the hundred-thousand cell IBM benchmark suite, our detailed placer can achieve 27% better wirelength and 8X faster runtime against FastDP, the fastest academic detailed placer reported, and our full placement flow can achieve 101X faster runtime, with 5% wirelength overhead, against VPR, the de facto standard in FPGA placements.
3

AIDS print media resource directory : a prototype for the centralization of AIDS print media in Monroe County, New York /

Galli, Joseph G. January 1995 (has links)
Thesis (M.S.)--Rochester Institute of Technology, 1995. / Typescript. Includes bibliographical references (leaves 17-20).
4

Performance estimation of wireless networks using traffic generation and monitoring on a mobile device.

Tiemeni, Ghislaine Livie Ngangom January 2015 (has links)
Masters of Science / In this study, a traffic generator software package namely MTGawn was developed to run packet generation and evaluation on a mobile device. The call generating software system is able to: simulate voice over Internet protocol calls as well as user datagram protocol and transmission control protocol between mobile phones over a wireless network and analyse network data similar to computer-based network monitoring tools such as Iperf and D-ITG but is self-contained on a mobile device. This entailed porting a ‘stripped down’ version of a packet generation and monitoring system with functionality as found in open source tools for a mobile platform. This mobile system is able to generate and monitor traffic over any network interface on a mobile device, and calculate the standard quality of service metrics. The tool was compared to a computer–based tool namely distributed Internet traffic generator (D-ITG) in the same environment and, in most cases, MTGawn reported comparable results to D-ITG. The important motivation for this software was to ease feasibility testing and monitoring in the field by using an affordable and rechargeable technology such as a mobile device. The system was tested in a testbed and can be used in rural areas where a mobile device is more suitable than a PC or laptop. The main challenge was to port and adapt an open source packet generator to an Android platform and to provide a suitable touchscreen interface for the tool. ACM Categories and Subject Descriptors B.8 [PERFORMANCE AND RELIABILITY] B.8.2 [Performance Analysis and Design Aids] C.4 [PERFORMANCE OF SYSTEMS] Measurement techniques, Performance attributes
5

Packet aggregation for voice over internet protocol on wireless mesh networks

Zulu, Docas Dudu January 2012 (has links)
>Magister Scientiae - MSc / This thesis validates that packet aggregation is a viable technique to increase call ca-pacity for Voice over Internet Protocol over wireless mesh networks. Wireless mesh networks are attractive ways to provide voice services to rural communities. Due to the ad-hoc routing nature of mesh networks, packet loss and delay can reduce voice quality.Even on non-mesh networks, voice quality is reduced by high overhead, associated with the transmission of multiple small packets. Packet aggregation techniques are proven to increase VoIP performance and thus can be deployed in wireless mesh networks. Kernel level packet aggregation was initially implemented and tested on a small mesh network of PCs running Linux, and standard baseline vs. aggregation tests were conducted with a realistic voice tra c pro le in hop-to-hop mode. Modi cations of the kernel were then transferred to either end of a nine node 'mesh potato' network and those tests were conducted with only the end nodes modi ed to perform aggregation duties. Packet ag- gregation increased call capacity expectedly, while quality of service was maintained in both instances, and hop-to-hop aggregation outperformed the end-to-end con guration. However, implementing hop-to-hop in a scalable fashion is prohibitive, due to the extensive kernel level debugging that must be done to achieve the call capacity increase.Therefore, end-to-end call capacity increase is an acceptable compromise for eventual scalable deployment of voice over wireless mesh networks.
6

Algorithm/architecture codesign of low power and high performance linear algebra compute fabrics

Pedram, Ardavan 27 September 2013 (has links)
In the past, we could rely on technology scaling and new micro-architectural techniques to improve the performance of processors. Nowadays, both of these methods are reaching their limits. The primary concern in future architectures with billions of transistors on a chip and limited power budgets is power/energy efficiency. Full-custom design of application-specific cores can yield up to two orders of magnitude better power efficiency over conventional general-purpose cores. However, a tremendous design effort is required in integrating a new accelerator for each new application. In this dissertation, we present the design of specialized compute fabrics that maintain the efficiency of full custom hardware while providing enough flexibility to execute a whole class of coarse-grain operations. The broad vision is to develop integrated and specialized hardware/software solutions that are co-optimized and co-designed across all layers ranging from the basic hardware foundations all the way to the application programming support through standard linear algebra libraries. We try to address these issues specifically in the context of dense linear algebra applications. In the process, we pursue the main questions that architects will face while designing such accelerators. How broad is this class of applications that the accelerator can support? What are the limiting factors that prevent utilization of these accelerators on the chip? What is the maximum achievable performance/efficiency? Answering these questions requires expertise and careful codesign of the algorithms and the architecture to select the best possible components, datapaths, and data movement patterns resulting in a more efficient hardware-software codesign. In some cases, codesign reduces complexities that are imposed on the algorithm side due to the initial limitations in the architectures. We design a specialized Linear Algebra Processor (LAP) architecture and discuss the details of mapping of matrix-matrix multiplication onto it. We further verify the flexibility of our design for computing a broad class of linear algebra kernels. We conclude that this architecture can perform a broad range of matrix-matrix operations as complex as matrix factorizations, and even Fast Fourier Transforms (FFTs), while maintaining its ASIC level efficiency. We present a power-performance model that compares state-of-the-art CPUs and GPUs with our design. Our power-performance model reveals sources of inefficiencies in CPUs and GPUs. We demonstrate how to overcome such inefficiencies in the process of designing our LAP. As we progress through this dissertation, we introduce modifications of the original matrix-matrix multiplication engine to facilitate the mapping of more complex operations. We observe the resulting performance and efficiencies on the modified engine using our power estimation methodology. When compared to other conventional architectures for linear algebra applications and FFT, our LAP is over an order of magnitude better in terms of power efficiency. Based on our estimations, up to 55 and 25 GFLOPS/W single- and double-precision efficiencies are achievable on a single chip in standard 45nm technology. / text
7

Establecimiento del Modelo de Agregación más apropiado para Ingeniería del Software

Amatriain, Hernán Guillermo January 2014 (has links)
Antecedentes: la síntesis cuantitativa consiste en integrar los resultados de un conjunto de experimentos, previamente identificados, en una medida resumen. Al realizar este tipo de síntesis, se busca hallar un resultado que sea resumen representativo de los resultados de los estudios individuales, y por tanto que signifique una mejora sobre las estimaciones individuales. Este tipo de procedimientos recibe el nombre de Agregación o Meta-Análisis. Existen dos estrategias a la hora de agregar un conjunto de experimentos, la primera parte del supuesto de que las diferencias en los resultados de un experimento a otro obedecen a un error aleatorio propio de la experimentación y de que existe un único resultado o tamaño de efecto que es compartido por toda la población, la segunda estrategia parte del supuesto de que no existe un único tamaño de efecto representativo de toda la población, sino que dependiendo del origen o momento en que se realicen los experimentos los resultados van a modificarse debido a la influencia de variables no controladas, a pesar de esto puede obtenerse un promedio de los distintos resultados para una conclusión general. A la primera de las estrategias se la denominada modelo de efecto fijo y a la segunda se la denominada modelo de efectos aleatorios. Los autores que han comenzado a trabajar en Meta-Análisis, no muestran una línea de trabajo unificada. Este hecho hace que sea necesaria la unificación de criterios para la realización de este tipo de trabajos. Objetivo: establecer un conjunto de recomendaciones o guías que permitan, a los investigadores en Ingeniería del Software, determinar bajo qué condiciones es conveniente desarrollar un Meta-Análisis mediante modelo de efecto fijo y cuando es conveniente utilizar el modelo de efectos aleatorios. Métodos: la estrategia sería la de obtener los resultados de experimentos de características similares mediante el método de Monte Carlo. Todos ellos contarían con un número de sujetos bajo, ya que esa es la característica principal en el campo de la Ingeniería de Software y que genera la necesidad de tener que agregar el resultado de varios experimentos. Luego se agrega el resultado de estos experimentos con el método de Diferencia de Medias Ponderadas aplicada primero con el modelo de efecto fijo, y posteriormente con el modelo de efectos aleatorios. Con las combinaciones realizadas, se analiza y compara la fiabilidad y potencia estadística de ambos modelos de efectos.
8

Untersuchungen zum Biegetragverhalten von Stahlfaserbeton und betonstahlbewehrtem Stahlfaserbeton unter Berücksichtigung des Einflusses von Stahlfaserart und Betonzusammensetzung

Müller, Torsten 28 January 2015 (has links) (PDF)
Auf der Basis der Bemessungsgrundlagen (DAfStb-Richtlinie „Stahlfaserbeton“, DBV-Merkblatt „Stahlfaserbeton“ und DIN 1045-1) wurden ausgewählte Bauteilversuche mit entsprechenden rechnerischen Überprüfungen der experimentell ermittelten Ergebnisse durchgeführt. Die Untersuchungen konzentrierten sich auf die Ermittlung der Effizienz von ausgewählten Stahlfasern in Betonen mit und ohne Betonstahlbewehrung in durch Biegung ohne Längskraft belasteten Versuchskörpern unter Betrachtung der Grenzzustände der Gebrauchstauglichkeit (GZG) und Tragfähigkeit (GZT). Das Versuchsprogramms umfasste neben der Prüfung ausgewählter Frischbetoneigenschaften die Bestimmung von Festbetonparametern an standardisierten Probekörpern. Des Weiteren wurden 4-Punkt-Biegezugversuche an Balken mit den Abmessungen l/h/b = 70/15/15 cm aus reinem Stahlfaserbeton sowie stahlfaserbewehrtem Stahlbeton, in Anlehnung an das DBV-Merkblatt „Stahlfaserbeton“ und die Richtlinie „Stahlfaserbeton“ vom DAfStb, durchgeführt. Aufbauend auf den Erkenntnissen aus den Materialversuchen im Labormaßstab wurden anschließend Untersuchungen an großformatigen Biegebalken (l/h/b = 420/40/20 cm) durchgeführt. Im Weiteren erfolgten Prüfungen und Auswertungen von Einzelfaserausziehversuchen mit ausgewählten Stahldrahtfasern in Verbindung mit Betonen unterschiedlicher Druckfestigkeit unter Berücksichtigung des Einflusses der Einbindelänge sowie des Einbindewinkels. Im Rahmen des Versuchsprogramms wurden die auf der Grundlage der 4-Punkt-Biegezugversuche ermittelten Ergebnisse analysiert und mit dem derzeit gültigen Bemessungsmodell nach DAfStb-Richtlinie „Stahlfaserbeton“ rechnerisch überprüft. Auf der Basis dieser Ergebnisse erfolgte die Entwicklung eines Ansatzes zur Optimierung der bestehenden Bemessungsansätze. Gegenstand dieser Forschungsarbeit war ebenfalls die Entwicklung eines Fasermodells, mit dem man auf der Grundlage des eingesetzten Fasergehaltes und der Faserart Rückschlüsse auf die Faseranzahl in einer rechteckigen Bruchfläche ziehen kann. Hierbei wurde ein Modell für Rechteckquerschnitte entwickelt, welches es ermöglicht, die durchschnittliche Faseranzahl in einer Bruchfläche, auf der Basis vereinfachter Annahmen, abzuschätzen. Die Verifizierung des Modells erfolgte durch den Vergleich der errechneten Faseranzahl mit zahlreichen experimentellen Versuchsergebnissen. Im letzten Abschnitt dieser Arbeit wurde die Herleitung bzw. Generierung von Bemessungshilfsmitteln zur Biegebemessung von Stahlfaserbeton mit und ohne Betonstahlbewehrung behandelt. Die Ausführungen beziehen sich dabei auf dimensionslose Bemessungstafeln und Interaktionsdiagrammen für Rechteckquerschnitte.
9

Untersuchungen zum Biegetragverhalten von Stahlfaserbeton und betonstahlbewehrtem Stahlfaserbeton unter Berücksichtigung des Einflusses von Stahlfaserart und Betonzusammensetzung

Müller, Torsten 20 October 2014 (has links)
Auf der Basis der Bemessungsgrundlagen (DAfStb-Richtlinie „Stahlfaserbeton“, DBV-Merkblatt „Stahlfaserbeton“ und DIN 1045-1) wurden ausgewählte Bauteilversuche mit entsprechenden rechnerischen Überprüfungen der experimentell ermittelten Ergebnisse durchgeführt. Die Untersuchungen konzentrierten sich auf die Ermittlung der Effizienz von ausgewählten Stahlfasern in Betonen mit und ohne Betonstahlbewehrung in durch Biegung ohne Längskraft belasteten Versuchskörpern unter Betrachtung der Grenzzustände der Gebrauchstauglichkeit (GZG) und Tragfähigkeit (GZT). Das Versuchsprogramms umfasste neben der Prüfung ausgewählter Frischbetoneigenschaften die Bestimmung von Festbetonparametern an standardisierten Probekörpern. Des Weiteren wurden 4-Punkt-Biegezugversuche an Balken mit den Abmessungen l/h/b = 70/15/15 cm aus reinem Stahlfaserbeton sowie stahlfaserbewehrtem Stahlbeton, in Anlehnung an das DBV-Merkblatt „Stahlfaserbeton“ und die Richtlinie „Stahlfaserbeton“ vom DAfStb, durchgeführt. Aufbauend auf den Erkenntnissen aus den Materialversuchen im Labormaßstab wurden anschließend Untersuchungen an großformatigen Biegebalken (l/h/b = 420/40/20 cm) durchgeführt. Im Weiteren erfolgten Prüfungen und Auswertungen von Einzelfaserausziehversuchen mit ausgewählten Stahldrahtfasern in Verbindung mit Betonen unterschiedlicher Druckfestigkeit unter Berücksichtigung des Einflusses der Einbindelänge sowie des Einbindewinkels. Im Rahmen des Versuchsprogramms wurden die auf der Grundlage der 4-Punkt-Biegezugversuche ermittelten Ergebnisse analysiert und mit dem derzeit gültigen Bemessungsmodell nach DAfStb-Richtlinie „Stahlfaserbeton“ rechnerisch überprüft. Auf der Basis dieser Ergebnisse erfolgte die Entwicklung eines Ansatzes zur Optimierung der bestehenden Bemessungsansätze. Gegenstand dieser Forschungsarbeit war ebenfalls die Entwicklung eines Fasermodells, mit dem man auf der Grundlage des eingesetzten Fasergehaltes und der Faserart Rückschlüsse auf die Faseranzahl in einer rechteckigen Bruchfläche ziehen kann. Hierbei wurde ein Modell für Rechteckquerschnitte entwickelt, welches es ermöglicht, die durchschnittliche Faseranzahl in einer Bruchfläche, auf der Basis vereinfachter Annahmen, abzuschätzen. Die Verifizierung des Modells erfolgte durch den Vergleich der errechneten Faseranzahl mit zahlreichen experimentellen Versuchsergebnissen. Im letzten Abschnitt dieser Arbeit wurde die Herleitung bzw. Generierung von Bemessungshilfsmitteln zur Biegebemessung von Stahlfaserbeton mit und ohne Betonstahlbewehrung behandelt. Die Ausführungen beziehen sich dabei auf dimensionslose Bemessungstafeln und Interaktionsdiagrammen für Rechteckquerschnitte.
10

Méthode d'optimisation multicritère pour l'aide à la conception des projets de densification urbaine / Multicriteria optimization method for design aid of urban densification projects

Ribault, Clément 29 September 2017 (has links)
La population mondiale fait face, globalement, à une urbanisation expansive. Cet étalement urbain, souvent mal contrôlé, menace aussi bien l’environnement que la santé, la qualité de vie et la sécurité alimentaire des humains. Il est possible de le limiter en lui préférant la densification urbaine. Néanmoins, la complexité des phénomènes en jeu dans un tel contexte nous incite à penser que les responsables d’opérations de densification urbaine ont besoin d’outils pour les aider à faire les choix les plus pertinents possibles. Dans un premier temps, l’état de l’art présenté dans cette thèse montre que l’outil idéal n’existe pas, et que l’optimisation multicritère par algorithme génétique est une technique adaptée à l’aide à la conception de bâtiments. Les caractéristiques souhaitables pour une méthode d’assistance des concepteurs de projets de densification urbaine sont alors précisées. Nous recommandons de baser cette méthode sur le couplage entre un algorithme génétique et un outil capable de réaliser des simulations thermiques dynamiques (STD) de quartiers. Les capacités des logiciels de STD Pleiades+COMFIE (P+C) et EnergyPlus (E+) sont situées par rapport à ces exigences, puis un premier test d’optimisation d’un projet de densification urbaine en associant EnergyPlus à un algorithme génétique est présenté. Certaines lacunes de cette méthode peuvent être comblées par la plateforme en cours de développement dans le projet ANR MERUBBI. Dans un second temps, nous analysons donc les résultats d’une étude comparative entre P+C, E+ et l’outil MERUBBI, menée sur un projet de densification d’un îlot à forte densité urbaine. Ils montrent que ce dernier est fiable et particulièrement pertinent pour l’évaluation précise des interactions entre bâtiments. Dans un troisième temps, nous abordons la problématique de la diminution des temps de calcul, enjeu crucial pour que notre méthode d’aide à la conception soit réellement accessible aux professionnels du bâtiment. Nous proposons une technique de réduction de la période de simulation que nous présentons en détail. Enfin, la méthode d’optimisation développée est appliquée à la résolution de différents problèmes de conception du projet sus-cité, en utilisant E+. Nous montrons en quoi l’utilisation de l’outil MERUBBI enrichira cette approche, avant de conclure sur des perspectives de développement de notre méthode pour améliorer son interactivité. / The world’s population is facing an expansive urbanization. This urban sprawl, which is often not well managed, is endangering the environment as well as human health, quality of life and food security. It can be controlled by favouring urban densification. Nonetheless, the complexity of the phenomena involved in such a context leads us to think that supervisors of urban densification operations need some tools to help them make the most relevant choices. This thesis begins with a literature review that shows the ideal tool does not exist, and explains why multi-objective optimization using a genetic algorithm is a suitable technique for building design aid. Then we clarify the desirable features of an assistance method for urban densification projects designers. We recommend to base this method on the coupling of a genetic algorithm with a district-scale dynamic thermal simulation (DTS) tool. We compare capabilities of EnergyPlus (E+) and Pleiades+COMFIE (P+C) DTS software with these requirements, then we present a first urban densification project optimization test associating EnergyPlus with a genetic algorithm. The platform under development in the ANR MERUBBI project can offset certain shortcomings of this method. Hence, in a second phase we analyze the results of a comparative study of P+C, E+ and the MERUBBI tool, carried out using a high-density district densification project as a test case. It shows that the latter is reliable and particularly relevant to precisely assess interactions between buildings. In a third phase we address the problematic of reducing the computing time, a major issue to make our design aid method truly accessible to building professionals. We propose a way of reducing the operating period length and present it in detail. Finally, our optimization method is used to solve various design problems of the above-mentioned project, using E+. We show how the use of the MERUBBI platform will enrich this approach before concluding with development ideas to make our method more user-friendly and interactive.

Page generated in 0.0568 seconds