Tesis sobre el tema "Architectured matrials"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Architectured matrials.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 23 mejores tesis para su investigación sobre el tema "Architectured matrials".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Mou, Guangjin. "Design of exotic architectured materials in linear elasticity". Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS519.pdf.

Texto completo
Resumen
Les classes de symétrie d'un comportement linéaire définissent les différents types d'anisotropie qui peuvent être modélisés par les tenseurs constitutifs associés. Cependant, les espaces des matériaux linéaires sont très riches et toute une gamme de possibilités intermédiaires peut exister au-delà des classes de symétrie. Les matériaux présentant des propriétés anisotropes non-standard associées à ces possibilités intermédiaires sont appelés matériaux exotiques. Par exemple, le matériau 2D R0-orthotrope est un cas bien connu de matériau exotique.L'objectif principal de cette recherche est de développer des outils géométriques pour caractériser les espaces linéaires des matériaux de manière très fine, ce qui permet de détecter ces possibilités intermédiaires. L'ensemble exotique obtenu est intrinsèquement caractérisé par une relation polynomiale entre les invariants du tenseur d'élasticité. En conséquence, nous prouvons que la R0-orthotropie est le seul type de matériau élastique exotique en 2D. Cependant, lorsque l'on généralise à l'élasticité linéaire 3D, ce nombre s'élève à 163.Le deuxième objectif de cette étude est d'obtenir une mésostructure présentant à grande échelle le comportement exotique décrit précédemment. Un algorithme d'optimisation basé sur la dérivée topologique est implémenté dans Python/FEniCS pour réaliser la design de mésostructure périodiques. Le matériau 2D R0-orthotrope et plusieurs cas de matériaux exotiques 3D sont étudiés. La fonction objective du problème d'optimisation est formulée en termes d'invariants du tenseur d'élasticité effectif cible
The symmetry classes of a linear constitutive law define the different types of anisotropy that can be modelled by the associated constitutive tensors. However, the spaces of linear materials are very rich and a whole range of intermediate possibilities can exist beyond symmetry classes. Materials with non-standard anisotropic properties associated with such intermediate possibilities are called exotic materials. For instance, 2D R0-orthotropic material is a well-known case of exotic material.The primary objective of this research is to develop geometrical tools to characterise the linear material spaces in a very fine way, which allow these intermediate possibilities to be detected. The exotic set obtained is intrinsically characterised by a polynomial relation between elasticity tensor invariants. As a result, we prove that R0-orthotropy is the only type of 2D exotic elastic material. However, when generalised to 3D linear elasticity, this number is up to 163.The second objective of this study is to obtain a mesostructure exhibiting at macroscale the exotic behaviour described previously. A topological derivative-based optimisation algorithm is implemented in Python/FEniCS to realise the design of periodic metamaterials. The 2D R0-orthotropic material and several cases of 3D exotic materials are studied. The objective function of the optimisation problem is formulated in terms of the invariants of the target effective elasticity tensor
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Romero, Mier y. Teran Andrés. "Real-time multi-target tracking : a study on color-texture covariance matrices and descriptor/operator switching". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-01002065.

Texto completo
Resumen
Visual recognition is the problem of learning visual categories from a limited set of samples and identifying new instances of those categories, the problem is often separated into two types: the specific case and the generic category case. In the specific case the objective is to identify instances of a particular object, place or person. Whereas in the generic category case we seek to recognize different instances that belong to the same conceptual class: cars, pedestrians, road signs and mugs. Specific object recognition works by matching and geometric verification. In contrast, generic object categorization often includes a statistical model of their appearance and/or shape.This thesis proposes a computer vision system for detecting and tracking multiple targets in videos. A preliminary work of this thesis consists on the adaptation of color according to lighting variations and relevance of the color. Then, literature shows a wide variety of tracking methods, which have both advantages and limitations, depending on the object to track and the context. Here, a deterministic method is developed to automatically adapt the tracking method to the context through the cooperation of two complementary techniques. A first proposition combines covariance matching for modeling characteristics texture-color information with optical flow (KLT) of a set of points uniformly distributed on the object . A second technique associates covariance and Mean-Shift. In both cases, the cooperation allows a good robustness of the tracking whatever the nature of the target, while reducing the global execution times .The second contribution is the definition of descriptors both discriminative and compact to be included in the target representation. To improve the ability of visual recognition of descriptors two approaches are proposed. The first is an adaptation operators (LBP to Local Binary Patterns ) for inclusion in the covariance matrices . This method is called ELBCM for Enhanced Local Binary Covariance Matrices . The second approach is based on the analysis of different spaces and color invariants to obtain a descriptor which is discriminating and robust to illumination changes.The third contribution addresses the problem of multi-target tracking, the difficulties of which are the matching ambiguities, the occlusions, the merging and division of trajectories.Finally to speed algorithms and provide a usable quick solution in embedded applications this thesis proposes a series of optimizations to accelerate the matching using covariance matrices. Data layout transformations, vectorizing the calculations (using SIMD instructions) and some loop transformations had made possible the real-time execution of the algorithm not only on Intel classic but also on embedded platforms (ARM Cortex A9 and Intel U9300).
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Lemaitre, Florian. "Tracking haute fréquence pour architectures SIMD : optimisation de la reconstruction LHCb". Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS221.

Texto completo
Resumen
Tout au long de cette thèse, nous avons étudié des problèmes d'algèbre linéaire de petite dimension (typiquement de 2x2 à 5x5) utilisés au sein de l'expérience LHCb (mais aussi dans d'autres domaines tels que la vision par ordinateur). Les bibliothèques d’algèbre linéaire telles que Eigen, Magma ou la MKL ne sont pas optimisées pour de petites matrices. Nous avons utilisé et combiné plusieurs transformations connues facilitant le SIMD ainsi que des transformations moins usuelles comme la racine carré inverse rapide. Pour faciliter l’écriture de ces transformations, mais également dans le but d’avoir un code portable, nous avons écrit un générateur de code. Nous avons testé ces transformations et analysé leur impact sur la vitesse de traitement d’algorithmes simples. Le traitement par lot (batch) en SoA est crucial pour maximiser la vitesse de traitements de ces problèmes à faible dimension. Une analyse de la précision des résultats en fonction de la précision de calcul a également été faite sur ces exemples. Nous avons alors implémenté ces transformations dans le but d’accélérer la factorisation de Cholesky de petites matrices (jusqu'à 12x12). La vitesse de traitement plafonne sans l’utilisation du calcul rapide de la racine carrée inverse. Nous avons obtenu une accélération entre x10 et x33 en F32. Notre code est ainsi de x3 à x10 plus rapide que la MKL. Enfin, nous avons étudié et accéléré le filtre de Kalman généraliste. Nous avons ainsi obtenu une accélération de x90 sur l'implémentation 4x4 F32. Le filtre de Kalman utilisé au sein de LHCb a été accéléré d'un facteur x2,2 par rapport à la version actuelle SIMD et supérieur à x2,3 par rapport aux filtres d'autres expériences de physique des particules
During this thesis, we studied linear algebra systems with small matrices (typically from 2x2 to 5x5) used within the LHCb experiment (and also in other domains like computer vision). Linear algebra libraries like Eigen, Magma or the MKL are not optimized for such small matrices. We used and combined many well-known transforms helping SIMD and some unusual transforms like the fast reciprocal square root computation. We wrote a code generator in order to simplify the use of such transforms and to have a portable code. We tested these optimizations and analyzed their impact on the speed of simple algorithm. Batch processing in SoA is crucial to process fast these small matrices. We also analyzed how the accuracy of the results depends on the precision of the data. We implemented these transforms in order to speed-up the Cholesky factorization of small matrices (up to 12x12). The processing speed is capped if the fast reciprocal square root computation is not used. We got a speed up between x10 and x33 using F32. Our version is then from x3 to x10 faster than MKL. Finally, we studied and sped up the Kalman filter in its general form. Our 4x4 F32 implementation is x90 faster. The Kalman filter used within LHCb has been sped up by x2.2 compared to the current SIMD version and by at least x2.3 compared to filters used other high energy physics experiments
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Brown, Lucas A. "Matrices as a tool for space and time integration : a methodology for reducing human impact and increasing quality of life". Virtual Press, 2002. http://liblink.bsu.edu/uhtbin/catkey/1231343.

Texto completo
Resumen
This study provides a framework using matrices that address three main issues. First of all, the matrices are used to integrated physical needs that compose human systems in an attempt to reduce the human impact. Secondly, the matrices are used to develop a higher integration of time allowing the user to apply time to a wide variety of needs that contribute to a high quality of life. Lastly the matrices are used to integrate the aspects of space with the aspects of time. This shows that the whole, time and space, is greater than the sum of the parts. I pursued this study in an attempt to further define sustainable design. The application of the matrices was practiced in a design competition for urban sustainability.
Department of Architecture
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Westerberg, Per. "Enterprise Architecture Analysis : - Astudy of the IT landscape atAstraZeneca". Thesis, KTH, Industriella informations- och styrsystem, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-169227.

Texto completo
Resumen
A case study at a global pharmaceutical company has been conducted toanalyse how the Hidden Structure method using the Enterprise Architecture Analyses(EAAT) tool, developed at KTH, can be used to visualize the IT architecture and tocreate a better understanding on which applications could increase a risk of therobustness of the architecture if changes was done to them. Also the measure of ITsupport metrics as incidents and changes per system has been analysed to understandif they can be used to understand the robustness of the incident. The tool was used tocreate a model of the enterprise architecture of the company and the analysis showedthat the robustness of the IT architecture was good; the core applications that couldcreate most damage were identified. The analysis of the IT support metrics showedthat it was difficult to use the change records as indicators since the number ofchanges per systems were very few. The incident analysis showed that the systemswith the highest number of incidents were classified as belonging core or peripheralcategory.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

EDJLALI, GUY. "Contribution a la parallelisation de methodes iteratives hybrides pour matrices creuses sur architectures heterogenes". Paris 6, 1994. http://www.theses.fr/1994PA066360.

Texto completo
Resumen
Cette these traite de programmation parallele heterogene, des structures de donnees irregulieres et de methode iterative hybride. La methode iterative choisie est la methode d'arnoldi de calcul de valeurs propres et de vecteurs propres de matrices creuses. Dans une premiere partie, une implementation data-parallele de cette methode a ete realisee. Cela a permis de mettre en evidence le comportement du programme et les lacunes existantes au niveau des outils de manipulation de matrices creuses. Dans une deuxieme partie, nous avons developpe des outils de manipulation de matrices creuses et propose un format de stockage data parallele de matrices creuses generales. Ce format est utilise pour implementer le noyau d'une bibliotheque data parallele de manipulation de matrices creuses. Dans une troisieme partie, nous avons etudie les structures de donnees irregulieres pour les machines mimd a memoire distribuee. Cette etude a mis en evidence l'interet de la compilation a l'execution. Nous avons etendu la compilation a l'execution aux environnements adaptatifs, c'est-a-dire aux environnements dont le nombre de processeurs varie a l'execution. Enfin, a travers le calcul de valeurs propres et de vecteurs propres, nous avons aborde les environnements d'execution heterogenes. Nous avons propose une methode d'arnoldi hybride s'executant sur un ensemble de machines paralleles distribuees. Nous avons mis en evidence la necessite de nouveaux algorithmes pour exploiter ces ensembles de machines
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Dolz, Zaragozá Manuel Francisco. "Energy-aware matrix computacion on multirhreaded architectures". Doctoral thesis, Universitat Jaume I, 2014. http://hdl.handle.net/10803/669082.

Texto completo
Resumen
Desde hace décadas, la computación de altas prestaciones ha concentrado sus esfuerzos en la optimización de algoritmos aplicados a la resolución de problemas complejos que aparecen en un amplio abanico de aplicaciones de casi todas las áreas científicas y tecnológicas. En este sentido el uso de herramientas y técnicas, tales como la computación paralela y distribuida, han impulsado la mejora de las prestaciones en este tipo de algoritmos y aplicaciones. Hoy en día, el término optimización hace referencia a la reducción del tiempo de ejecución, aunque también a la energía necesaria para su cómputo. La búsqueda de soluciones verdes o fuentes de energía alternativas que permitan reducir las emisiones de CO2 a la atmósfera demuestran la creciente preocupación por el medio ambiente. En el ámbito de las tecnologías de la información y, más concretamente, en la computación de altas prestaciones, la comunidad científico-técnica muestra especial interés en el desarrollo de componentes, herramientas y técnicas que permitan minimizar el consumo energético. En este sentido, se pretende que las aplicaciones sean conscientes de la energía disipada, tanto en el sistema operativo como en las bibliotecas de cómputo, comunicación y aplicaciones paralelas. Los objetivos de la presente tesis están orientados al estudio, análisis y aprovechamiento de las técnicas de ahorro disponibles en las arquitecturas de computadores multinúcleo e híbridas (CPU-GPU) actuales actuales con el fin de mejorar el rendimiento energético en aplicaciones que requieren la resolución de problemas de álgebra lineal densa y dispersa. Los resultados experimentales obtenidos que validan las ganancias conseguidas mediante medidores de energía, consiguiendo destacables ahorros energéticos y manteniendo un constante compromiso entre prestaciones y ahorros generados.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Baala, Hichem. "Vague récursive distribuée : application aux arbres de jeux et aux matrices". Paris 8, 1999. http://www.theses.fr/1999PA081594.

Texto completo
Resumen
Jusqu'a une epoque recente, la conception d'un algorithme distribue passait neces♭ sairement par une phase de specification des echanges de messages entre les differents processus participant au traitement distribue. L'appel de procedure distante [bn83] fut l'un des premiers outils a rendre transparente la gestion des echanges de messages entre processus distribues. Le concept de la vague recursive distribuee du a g. Florin et i. Lavallee [fl91] et developpe dans sa these pour les applications <> par r. Gomez [gom95], utilise l'apd, la recursivite et le calcul diffusant et offre un nouveau mode de programmation distribuee. Sortant des seules applications systemes, nous etendrons le concept de la vrd aux arbres de jeux et aux calculs matriciels [baa98, baa99]. Une generalisation de la vrd aux systemes distribues conduit au concept de la multi-vrd qui integres des aspects a la fois d'auto-adaptation et auto-restauration d'une structure de controle, et une optimisation de la charge du reseau en messages de controle. L'etude des vagues recursives et leur application a un probleme de calcul numerique - la multiplication matricielle - nous a amene a reconsiderer la methode due a stra@en [str69] et a en donner, pour la premiere fois, une version iterative - que nous avons implante - qui permet d'obtenir l'expression d'un element quelconque de la matrice resultat d'un produit matriciel obtenu par la methode de stra@en, quelque soit l'ordre de la matrice [bl98]. Ce resultat permet de faire sortir la methode de stra@en du champ purement theorique ou son caractere hautement recursif la tenait confinee et permet d'entrevoir une utilisation reelle de cette methode.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Rocha, Lindomar José. "Determinação de autovalores e autovetores de matrizes tridiagonais simétricas usando CUDA". reponame:Repositório Institucional da UnB, 2015. http://repositorio.unb.br/handle/10482/19625.

Texto completo
Resumen
Dissertação (mestrado)–Universidade de Brasília, Universidade UnB de Planaltina, Programa de Pós-Graduação em Ciência de Materiais, 2015.
Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2015-12-15T17:59:17Z No. of bitstreams: 1 2015_LindomarJoséRocha.pdf: 1300687 bytes, checksum: f028dc5aba5d9f92f1b2ee949e3e3a3d (MD5)
Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-02-29T22:14:44Z (GMT) No. of bitstreams: 1 2015_LindomarJoséRocha.pdf: 1300687 bytes, checksum: f028dc5aba5d9f92f1b2ee949e3e3a3d (MD5)
Made available in DSpace on 2016-02-29T22:14:44Z (GMT). No. of bitstreams: 1 2015_LindomarJoséRocha.pdf: 1300687 bytes, checksum: f028dc5aba5d9f92f1b2ee949e3e3a3d (MD5)
Diversos ramos do conhecimento humano fazem uso de autovalores e autovetores, dentre eles têm-se Física, Engenharia, Economia, etc. A determinação desses autovalores e autovetores pode ser feita utilizando diversas rotinas computacionais, porém umas mais rápidas que outras nesse senário de ganho de velocidade aparece a opção de se usar a computação paralela de forma mais especifica a CUDA da Nvidia é uma opção que oferece um ganho de velocidade significativo, nesse modelo as rotinas são executadas na GPU onde se tem diversos núcleos de processamento. Dada a tamanha importância dos autovalores e autovetores o objetivo desse trabalho é determinar rotinas que possam efetuar o cálculos dos mesmos com matrizes tridiagonais simétricas reais de maneira mais rápida e segura, através de computação paralela com uso da CUDA. Objetivo esse alcançado através da combinação de alguns métodos numéricos para a obtenção dos autovalores e um alteração no método da iteração inversa utilizado na determinação dos autovetores. Temos feito uso de rotinas LAPACK para comparar com as nossas rotinas desenvolvidas em CUDA. De acordo com os resultados, a rotina desenvolvida em CUDA tem a vantagem clara de velocidade quer na precisão simples ou dupla, quando comparado com o estado da arte das rotinas de CPU a partir da biblioteca LAPACK. ______________________________________________________________________________________________ ABSTRACT
Severa branches of human knowledge make use of eigenvalues and eigenvectors, among them we have physics, engineering, economics, etc. The determination of these eigenvalues and eigenvectors can be using various computational routines, som faster than others in this speed increase scenario appears the option to use the parallel computing more specifically the Nvidia’s CUDA is an option that provides a gain of significant speed, this model the routines are performed on the GPU which has several processing cores. Given the great importance of the eigenvalues and eigenvectors the objective of this study is to determine routines that can perform the same calculations with real symmetric tridiagonal matrices more quickly and safely, through parallel computing with use of CUDA. Objective that achieved by some combination of numerical methods to obtain the eigenvalues and a change in the method of inverse iteration used to determine of the eigenvectors, which was used LAPACK routines to compare with routine developed in CUDA. According to the results of the routine developed in CUDA has marked superiority with single or double precision, in the question speed regarding the routines of LAPACK.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

El-Ghajiji, Otman Abubaker. "Investigations into the suitability of parallel computing architectures for the solution of large sparse matrices using the preconditioned conjugate gradient method". Thesis, University of Bath, 1995. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.299647.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Khodja, Walid. "Organisation de nano-matériaux inorganiques au sein de matrices supramoléculaires poreuses recyclables". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30016.

Texto completo
Resumen
L'inclusion de nanoparticules métalliques dans des réseaux supramoléculaires poreux a connu un essor très important au cours des dernières années. En effet ces matériaux hybrides combinent les propriétés liées aux réseaux supramoléculaires poreux, telles qu'une importante surface spécifique et une grande modulation chimique des pores, et celles qui sont intrinsèques aux nanoparticules métalliques, comme les propriétés catalytiques ou optiques. De ce fait, ces matériaux composites sont explorés dans les domaines de la catalyse ou de la détection. Les réseaux supramoléculaires poreux regroupent trois grandes familles de structures bien distinctes, selon les interactions qu'elles mettent en œuvre pour maintenir leur intégrité structurale. Nous distinguons en premier les réseaux construits par des liaisons de coordination, appelés MOF (" Metal Organic Framework "). Ces réseaux poreux ont été largement étudiés pour l'incorporation de nanoparticules métalliques avec diverses fonctionnalités à la clé. Les réseaux supramoléculaires obtenus par associations covalentes, nommés COF (" Covalent Organic Framework "), ont été relativement peu exploités pour la croissance in situ de nanoparticules métalliques. Enfin, les architectures supramoléculaires poreuses dont la cohésion structurale est assurée par des interactions faibles telles que la liaison Hydrogène, et qui sont connus sous le sigle HOF (" Hydrogen-bonded Open Framework "), n'ont, à notre connaissance, jamais été mis en œuvre comme support de croissance de nanoparticules métalliques. L'objectif de cette thèse a été donc d'explorer la possibilité d'utiliser les architectures supramoléculaires poreuses fondées sur la liaison Hydrogène, comme matrices pour la croissance contrôlée de nanoparticules de métaux nobles. La première partie de la thèse fut consacrée à l'élaboration de cristaux de dimensions sub-micrométriques d'une architecture poreuse supramoléculaire, développée dans l'équipe et connue sous le pseudonyme SPA-2 (" Supramoléculaire Porous Architecture "), grâce à des conditions opératoires solvo-thermales. Deux raisons ont motivé notre choix pour cette matrice : sa porosité (estimée à 53 %), ainsi que ses canaux décorés par des fonctions pyridyls. La deuxième partie de ces travaux de recherche a conduit à l'obtention du matériau hybride Au@SPA-2. La synthèse de ce matériau procède par une fonctionnalisation des nanocristaux de SPA-2 par des thiocyanates, suivie d'une imprégnation, puis d'une photo-réduction du précurseur moléculaire d'or photosensible (Me2SAuCl). La post-fonctionnalisation du SPA-2 permet une imprégnation efficace en or (5 à 10 % de la masse totale). L'exposition au rayonnement ultraviolet du matériau [Au-SCN]@SPA-2 permet de réduire le complexe d'or, puis de générer des nanoparticules. Pour notre système hybride, il est possible de contrôler la taille des nanoparticules d'or (de 1 à 25 nm) par la durée d'irradiation. Il s'agit de la première synthèse de nanoparticules métalliques au sein d'une matrice supramoléculaire poreuse fondée sur l'interaction Hydrogène, jamais rapportée à ce jour dans la littérature. La troisième partie des travaux a été centrée sur la synthèse du matériau hybride Ag@SPA-2, avec la même stratégie qui a été mise en œuvre pour l'or, à savoir le piégeage d'un précurseur d'argent photosensible (AgNO3) par un anion, ici un chlorure, localisé dans les canaux du SPA-2. Des nanoparticules d'argent sont obtenues dans les canaux de SPA-2 par photo-réduction, sous UV, du matériau AgCl@SPA-2. Les caractérisations de ce matériau hybride mettent en évidence des nanoparticules d'argent distribuées uniformément au sein des nanocristaux octaédriques de SPA-2. La matrice SPA-2 est recyclable. Par simple dissolution dans une eau légèrement acide, il est possible d'isoler les nanoparticules de métaux nobles des briques constitutives du réseau poreux SPA-2. À partir de la solution aqueuse, la matrice SPA-2 initiale est régénérée par cristallisation
The interest for imbedding metallic nanoparticles in porous supramolecular networks has grown considerably in recent years. Indeed, these hybrid materials combine the properties related to porous supramolecular networks, such as a controlled porosity, large specific surface area, versatile chemical modulation; and those that are intrinsic to metal nanoparticles, such as catalytic or optical properties. As a result, these composite materials are explored in the fields of catalysis or detection. Porous supramolecular networks consist in three large families of distinct compounds, according to the interactions that they implement to maintain their structural integrity. We first distinguish the networks built by coordination bonds, called MOF (" Metal Organic Framework "). These porous networks have been widely studied for the incorporation of metal nanoparticles with various functionalities. The supramolecular networks obtained by covalent associations, named COF (" Covalent Organic Framework "), have been relatively little explored for the in situ growth of metallic nanoparticles. Finally, porous supramolecular architectures whose structural cohesion is ensured by weak interactions such as Hydrogen bonds, known by the acronym HOF (" Hydrogen-bonded Open Framework "), have, to the best of our knowledge, never been reported as a growth support for metallic nanoparticles. The aim of this thesis was to explore the possibility of using the porous supramolecular architectures based on hydrogen bonds as matrices for the controlled growth of noble metal nanoparticles. The first part of the thesis was devoted to the development of sub-micrometric crystals of a supramolecular porous architecture developed in the team and known under the pseudonym SPA-2 (" Supramoléculaire Porous Architecture "). Two reasons motivated our choice for this matrix: its porosity (estimated at 53%), as well as its channels decorated by pyridyl functions. The second part of this research led to the conception of the Au@SPA-2 hybrid material. The synthesis of this material proceeds by functionalizing the nanocrystals of SPA-2 with thiocyanates, followed by impregnation, then by a photo-reduction of the photosensitive gold molecular precursor (Me2SAuCl). The post-functionalization of the SPA-2 allows an effective impregnation in gold (5 to 10% of the total mass). The ultraviolet radiation exposure of the [Au-SCN]@SPA-2 material makes it possible to reduce the gold complex and then to generate nanoparticles. For our hybrid system, it is possible to control the size of gold nanoparticles (from 1 to 25 nm) by the duration of irradiation. This is the first synthesis of metallic nanoparticles in a porous supramolecular matrix based on the Hydrogen interactions ever reported. The third part of our research work focused on the synthesis of the Ag@SPA-2 hybrid material, with the same strategy that has been implemented for gold, namely the trapping of a photosensitive silver precursor (AgNO3), by an anion, here a chloride, located in the channels of SPA-2 network. Silver nanoparticles were obtained by photo-reduction, under UV light, of the material AgCl@SPA-2. The characterizations of this hybrid material revealed silver nanoparticles distributed uniformly within SPA-2 crystals. The matrix SPA-2 is recyclable. By simply dissolving the hybrid materials (Au@SPA-2 or Ag@SPA-2) in a slightly acidic aqueous solution, it was possible to isolate the metal nanoparticles from the molecular components of the SPA-2 porous network. From this solution, the initial SPA-2 matrix was regenerated by crystallization
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Melkemi, Lamine Tchuente Maurice. "Réseaux systoliques pour la résolution de problèmes linéaires". S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00320007.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Le, Hai Van Dinh. "A new general purpose systolic array for matrix computations". PDXScholar, 1988. https://pdxscholar.library.pdx.edu/open_access_etds/3796.

Texto completo
Resumen
In this thesis, we propose a new systolic architecture which is based on the Faddeev's algorithm. Because Faddeev's algorithm is inherently general purpose, our architecture is able to perform a wide class of matrix computations. And since the architecture is systolic based, it brings massive parallelism to all of its computations. As a result, many matrix operations including addition, multiplication, inversion, LU-decomposition, transpose, and solutions to linear systems of equations can now be performed extremely fast. In addition, our design introduces several concepts which are new to systolic architectures: - It can be re-configured during run time to perform different functions with the uses of various control signals propagating throughout the arrays. - It allows for maximum overlaps of processing between consecutive computations, thereby increasing system throughput.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Boillod-Cerneux, France. "Nouveaux algorithmes numériques pour l'utilisation efficace des architectures de calcul multi-coeurs et hétérogènes". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10137/document.

Texto completo
Resumen
Depuis la naissance des supercalculateurs jusqu'à l'arrivée de machines Petaflopiques, les technologies qui les entourent n'ont cessé d'évoluer à une vitesse fulgurante. Cette course à la performance se heurte aujourd'hui au passage à l'Exascale, qui se démarque des autres échelles par les difficultés qu'elle impose: Les conséquences qui en découlent bouleversent tous les domaines scientifiques relatifs au Calcul Haute Performance (HPC). Nous nous plaçons dans le contexte des problèmes à valeurs propres, largement répandus: du page ranking aux simulation nucléaires, astronomie, explorations pétrolifères...Notre démarche comporte deux thématiques complémentaires: Nous proposons d'étudier puis d'améliorer la convergence de la méthode Explicitely Restarted Arnoldi Method (ERAM) en réutilisant les informations générées. L'étude de la convergence et sa caractérisation sont indispensable pour pouvoir mettre en place des techniques de Smart-Tuning. La phase d'amélioration consiste à utiliser les valeurs de Ritz de manière efficace afin d'accélérer la convergence de la méthode sans couts supplémentaires en termes de communications parallèles ou de stockage mémoire, paramètres indispensables pour les machines multi-coeurs et hétérogènes. Enfin, nous proposons deux méthodes pour générer des matrices de très larges dimensions aux spectres imposés afin de constituer une collection de matrices de tests qui seront partagées avec la communauté du HPC. Ces matrices serviront à valider numériquement des solveurs de systèmes à valeurs propres d'une part, et d'autre part de pouvoir évaluer leur performances parallèles grâce à leur propriétés adaptées aux machines petaflopiques et au-delà
The supercomputers architectures and programming paradigms have dramatically evolve during the last decades. Since we have reached the Petaflopic scale, we forecast to overcome the Exaflopic scale. Crossing this new scale implies many drastic changes, concerning the overall High Performance Computing scientific fields. In this Thesis, we focus on the eigenvalue problems, implied in most of the industrial simulations. We first propose to study and caracterize the Explicitly Restarted Arnoldi Method convergence. Based on this algorithm, we re-use efficiently the computed Ritz-Eigenvalues to accelerate the ERAM convergence onto the desired eigensubspace. We then propose two matrix generators, starting from a user-imposed spectrum. Such matrix collections are used to numerically check and approve extrem-scale eigensolvers, as well as measure and improve their parallel performance on ultra-scale supercomputers
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

El, Oualkadi Ahmed. "Analyse comportementale des filtres à capacités commutées pour les radiocommunications : Conception d'une nouvelle architecture en technologie BiCMOS 0,35 μm". Phd thesis, Université de Poitiers, 2004. http://tel.archives-ouvertes.fr/tel-00948226.

Texto completo
Resumen
Le travail de recherche présenté dans ce mémoire s'inscrit dans l'objectif général d'étudier la faisabilité de filtres monolithiques radiofréquences (RF) à capacités commutées pour la radiocommunication mobile, et de pouvoir procéder à l'analyse et à la conception de ces filtres en technologie standard BiCMOS 0,35 μm. L'analyse comportementale de ces filtres a nécessité la mise au point d'un algorithme original basé sur le formalisme des matrices de conversion, dont le principe général consiste à effectuer une linéarisation des éléments non-linéaires autour du point de fonctionnement grand signal. Cette méthode d'analyse, spécialement utilisée pour l'analyse du bruit de phase des oscillateurs, semble à ce jour parmi les plus rigoureuses et les plus efficaces en terme de temps de calcul pour l'analyse de ce type de filtres. Traditionnellement, à basse fréquence la commande de ces filtres est réalisée à l'aide d'un registre à décalage. Cependant, cette technique n'est pas envisageable en RF. Une solution originale qui consiste à commander le filtre à partir d'un oscillateur en anneau contrôlé en tension et de portes logiques " ou exclusif " a été proposée. Grâce à cette solution, il a été montré que l'association d'un tel circuit de commande appliqué à ce type de filtre présente des avantages importants et par conséquent devrait le rendre beaucoup plus attractif pour les concepteurs. Pour répondre aux spécifications de la radiocommunication mobile, la structure classique du filtre a été optimisée pour réduire le facteur du bruit et augmenter la dynamique, ainsi une nouvelle architecture (filtre LC à capacités commutées) a été proposée. Des simulations ont été réalisées sur l'ensemble du circuit afin de prévoir les dégradations éventuelles qui peuvent être générées par ces circuits lors d'une transmission numérique (ex. p/4-DQPSK) et d'étudier ainsi l'impact du bruit de phase (gigue temporelle) généré par le circuit de commande sur le comportement du filtre. Parallèlement, un prototype composé d'un filtre LC à capacités commutées et de son circuit de commande a été fabriqué en technologie standard BiCMOS 0,35 mm, sur une puce de taille de 1,1 x 1,75 mm². Ce premier circuit a permis de prouver la faisabilité de cette architecture dans le domaine des RF. Les résultats expérimentaux confirment les simulations et sont susceptibles de rendre cette architecture originale attractive pour des applications radiofréquences.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Libessart, Erwan. "Interface cerveau-machine : de nouvelles perspectives grâce à l'accélération matérielle". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0105/document.

Texto completo
Resumen
Les interfaces cerveau-machine (ICM) permettent de contrôler un appareil électronique grâce aux signaux cérébraux. Plusieurs méthodes de mesure de ces signaux, invasives ou non, peuvent être utilisées. L'électro-encéphalographie (EEG) est la méthode non-invasive la plus étudiée car elle propose une bonne résolution temporelle et le matériel nécessaire est bien moins volumineux que les systèmes de mesure des champs magnétiques.L'EEG a cependant une faible résolution spatiale, ce qui limite les performances des ICM utilisant cette méthode de mesure. Ce souci de résolution spatiale peut être réglé en utilisant le problème inverse de l'EEG, qui permet de passer des potentiels mesurés en surface à une distribution volumique des sources de courant dans le cerveau. Le principal verrou de cette technique est le temps nécessaire (plusieurs heures) pour calculer avec une station de travail la matrice permettant de résoudre leproblème inverse. Dans le cadre de cette thèse, nous avons étudié les solutions actuelles pour accélérer matériellement la conception de cette matrice. Nous avons ainsi proposé, conçu et testé une architecture électronique dédiée à ces traitements pour ICM. Les premiers résultats démontrent que notre solution permet de passer de plusieurs heures de calcul sur une station de travail à quelques minutes sur circuit reconfigurable. Cette accélération des traitements d'imagerie par EEG facilitera grandement la recherche sur l'utilisation du problème inverse et ouvrira ainsi de nouvelles perspectives pour le domaine de l'ICM
Brain-Computer Interfaces (BCI) are systems that use brain activity to control an external device. Various techniques can be used to collect the neural signals. The measurement can be invasive ornon-invasive. Electroencephalography (EEG) is the most studied non-invasive method. Indeed, EEG offers a fine temporal resolution and ease of use but its spatial resolution limits the performances of BCI based on EEG. The spatial resolution of EEG can be improved by solving the EEG inverse problem, which allows to determine the distribution of electrical sources in the brain from EEG. Currently, the main difficulty is the time needed(several hours) to compute the matrix which is used to solve the EEG inverse problem. This document describes the proposed solution to provide a hardware acceleration of the matrix computation. A dedicated electronic architecture has been implemented and tested. First results show that the proposed architecture divides the calculation time by a factor of 60 on a programmable circuit. This acceleration opens up new perspectives for EEG BCI
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Pasca, Bogdan Mihai. "Calcul flottant haute performance sur circuits reconfigurables". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2011. http://tel.archives-ouvertes.fr/tel-00654121.

Texto completo
Resumen
De plus en plus de constructeurs proposent des accélérateurs de calculs à base de circuits reconfigurables FPGA, cette technologie présentant bien plus de souplesse que le microprocesseur. Valoriser cette flexibilité dans le domaine de l'accélération de calcul flottant en utilisant les langages de description de circuits classiques (VHDL ou Verilog) reste toutefois très difficile, voire impossible parfois. Cette thèse a contribué au développement du logiciel FloPoCo, qui offre aux utilisateurs familiers avec VHDL un cadre C++ de description d'opérateurs arithmétiques génériques adapté au calcul reconfigurable. Ce cadre distingue explicitement la fonctionnalité combinatoire d'un opérateur, et la problématique de son pipeline pour une précision, une fréquence et un FPGA cible donnés. Afin de pouvoir utiliser FloPoCo pour concevoir des opérateurs haute performance en virgule flottante, il a fallu d'abord concevoir des blocs de bases optimisés. Nous avons d'abord développé des additionneurs pipelinés autour des lignes de propagation de retenue rapides, puis, à l'aide de techniques de pavages, nous avons conçu de gros multiplieurs, possiblement tronqués, utilisant des petits multiplieurs. L'évaluation de fonctions élémentaires en flottant implique souvent l'évaluation en virgule fixe d'une fonction. Nous présentons un opérateur générique de FloPoCo qui prend en entrée l'expression de la fonction à évaluer, avec ses précisions d'entrée et de sortie, et construit un évaluateur polynomial optimisé de cette fonction. Ce bloc de base a permis de développer des opérateurs en virgule flottante pour la racine carrée et l'exponentielle qui améliorent considérablement l'état de l'art. Nous avons aussi travaillé sur des techniques de compilation avancée pour adapter l'exécution d'un code C aux pipelines flexibles de nos opérateurs. FloPoCo a pu ainsi être utilisé pour implanter sur FPGA des applications complètes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Mudawar, Nayef. "Membranes and Matrices: Architecture as an Interface". 2015. https://scholarworks.umass.edu/masters_theses_2/221.

Texto completo
Resumen
What are the implications of digitalization on the role of architecture and our understanding of space? The digital experience is one that is highly customizable, responsive, and interactive. Physical buildings strive to become more connected to their environments and their users, by incorporating these same qualities. Traditional building methods and design principles produce static structures with a defined function and program, an approach which is in conflict with virtual space where functions which once were separated now easily flow and merge into one another. Buildings have the potential to become even more situated within their local by incorporating ideas of interactivity and responsiveness as they become uniquely shaped by their users and local climates. Digitalization therefore has ironically brought the design industries closer to the fields of biology and chemistry as information is seen to be at the core of everything. My proposal is for a public innovation space situated in the new innovation district in downtown Springfield, and will explore issues of privacy, openness, materiality, transparency, and the integration of technology with architecture such that the space itself becomes an interface for exchange.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Yang, Meng-Li y 楊孟禮. "Scalable Hardware Architecture for the Bidiagonalization of Matrices with Arbitrary Sizes". Thesis, 2018. http://ndltd.ncl.edu.tw/handle/yz9sbj.

Texto completo
Resumen
碩士
國立中正大學
通訊工程研究所
106
As the wireless communication prevails, the multiple input multiple output (MIMO) antenna system with orthogonal frequency division multiplexing (MIMO-OFDM) techniques has attracted much attention in recent years. Among the various MIMO techniques, precoding is the emphasis of this thesis. Precoding for the MIMO system provides better transmission quality and reliable data transmission. Some precoding sub-systems need to perform the QR decomposition (QRD) and/or singular value decomposition (SVD) of the channel matrices. The well-known Glub-Khan algorithm for matrix SVD is comprised of two parts: the bi-diagonalization and diagonalization. In this paper, only the matrix bi-diagonalization of channel matrices is studied. The Givens rotation or CORDIC is used to bi-diagonalize the 4-by-4 channel matrices. To determine appropriate parameters for hardware implementation, fixed-point simulation was performed. The results suggest the proposed hardware design to select 14 bits to represent each real and imaginary part of a complex number. The designed architecture was described by Verilog HDL, verified, and synthesized in Xilinx ISE FPGA environment. Also the VLSI implementation results under the TSMC 90 ns CMOS technology reveal that the architecture requires 7.3 K gates while operating at frequency 158.73 MHz.Furthermore, the designs for the bi-diagonalization of 6-by-6 and 8-by-8 matrices are also given.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Srinivasa, Murthy P. N. "Analysis Of Generalized Product Development Process Architecture Using Design Structure Matrices". Thesis, 2010. https://etd.iisc.ac.in/handle/2005/2003.

Texto completo
Resumen
Product development process (PDP) architecture holds the key to the management of New Product Development (NPD). A lot of care is exercised in managing the NPD to reduce risk and uncertainties. There exists potential scope for improvement both in initial planning as well as execution of the NPD program by studying the PDP architecture. This research work seeks to taps this potential and presents an analytical tool to aid the NPD Managers. In this research work Design Structure Matrices (DSM) are used to represent the PDP architecture. The Work Transformation Matrix (WTM) is a kind of DSM and it was introduced for the analysis of concurrent task structures. However a generalized task structure has not been studied analytically in the literature. In order to study a generalized task structure we add two new matrix types to the WTM set to represent the task network interconnections and the task interdependence. First we study the pure sequential task iteration structure for NPD and show that it has lower engineering effort (cost and time) than the concurrent task iteration structure previously discussed in literature. Next we study the generalized task iteration structure and derive the expressions for total work and cost vectors. This is a major research contribution since only simulation based methods are currently available for studying generalized task iteration structures. The optimization of sequencing interdependent tasks is a well known NP hard problem in NPD literature. For small sized task sets, exhaustive enumeration of all possible sequencing and their corresponding time or cost vectors can be computed to determine the optimal sequence. However for large sized task networks, only heuristic methods are deployed. Using the closed form expression for cost and time vectors for a pure sequential task iteration structure derived earlier in this research work, we attempt to devise a method to optimally sequence the design tasks. We develop new matrix combining both the node and link weightages of task network. Using the time vector relationship between sequential and concurrent task structures, it is shown that the optimal task sequence corresponds to the reordering of this combined matrix whose “Dominance index” (sum above the diagonal) is minimum. Finally, we use some of the standard test cases from the PDP literature to demonstrate our research findings.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Srinivasa, Murthy P. N. "Analysis Of Generalized Product Development Process Architecture Using Design Structure Matrices". Thesis, 2010. http://etd.iisc.ernet.in/handle/2005/2003.

Texto completo
Resumen
Product development process (PDP) architecture holds the key to the management of New Product Development (NPD). A lot of care is exercised in managing the NPD to reduce risk and uncertainties. There exists potential scope for improvement both in initial planning as well as execution of the NPD program by studying the PDP architecture. This research work seeks to taps this potential and presents an analytical tool to aid the NPD Managers. In this research work Design Structure Matrices (DSM) are used to represent the PDP architecture. The Work Transformation Matrix (WTM) is a kind of DSM and it was introduced for the analysis of concurrent task structures. However a generalized task structure has not been studied analytically in the literature. In order to study a generalized task structure we add two new matrix types to the WTM set to represent the task network interconnections and the task interdependence. First we study the pure sequential task iteration structure for NPD and show that it has lower engineering effort (cost and time) than the concurrent task iteration structure previously discussed in literature. Next we study the generalized task iteration structure and derive the expressions for total work and cost vectors. This is a major research contribution since only simulation based methods are currently available for studying generalized task iteration structures. The optimization of sequencing interdependent tasks is a well known NP hard problem in NPD literature. For small sized task sets, exhaustive enumeration of all possible sequencing and their corresponding time or cost vectors can be computed to determine the optimal sequence. However for large sized task networks, only heuristic methods are deployed. Using the closed form expression for cost and time vectors for a pure sequential task iteration structure derived earlier in this research work, we attempt to devise a method to optimally sequence the design tasks. We develop new matrix combining both the node and link weightages of task network. Using the time vector relationship between sequential and concurrent task structures, it is shown that the optimal task sequence corresponds to the reordering of this combined matrix whose “Dominance index” (sum above the diagonal) is minimum. Finally, we use some of the standard test cases from the PDP literature to demonstrate our research findings.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Sinha, Pavel. "Algorithm and architecture for simultaneous diagonalization of matrices applied to subspace-based speech enhancement". Thesis, 2008. http://spectrum.library.concordia.ca/975645/1/MR40897.pdf.

Texto completo
Resumen
This thesis presents algorithm and architecture for simultaneous diagonalization of matrices. As an example, a subspace-based speech enhancement problem is considered, where in the covariance matrices of the speech and noise are diagonalized simultaneously. In order to compare the system performance of the proposed algorithm, objective measurements of speech enhancement is shown in terms of the signal to noise ratio and mean bark spectral distortion at various noise levels. In addition, an innovative subband analysis technique for subspace-based time-domain constrained speech enhancement technique is proposed. The proposed technique analyses the signal in its subbands to build accurate estimates of the covariance matrices of speech and noise, exploiting the inherent low varying characteristics of speech and noise signals in narrow bands. The subband approach also decreases the computation time by reducing the order of the matrices to be simultaneously diagonalized. Simulation results indicate that the proposed technique performs well under extreme low signal-to-noise-ratio conditions. Further, an architecture is proposed to implement the simultaneous diagonalization scheme. The architecture is implemented on an FPGA primarily to compare the performance measures on hardware and the feasibility of the speech enhancement algorithm in terms of resource utilization, throughput, etc. A Xilinx FPGA is targeted for implementation. FPGA resource utilization re-enforces on the practicability of the design. Also a projection of the design feasibility for an ASIC implementation in terms of transistor count only is included
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Betts, Nicholas M. "Design and evaluation of a memory architecture for a parallel matrix processor array / Nicholas M. Betts". 2000. http://hdl.handle.net/2440/19718.

Texto completo
Resumen
CD-ROM in pocket on back end paper.
Bibliography: leaves 254-259.
xiv, 259 leaves : ill. ; 30 cm + 1 computer optical disc (4 3/4 in.)
Title page, contents and abstract only. The complete thesis in print form is available from the University Library.
Proposes a specialized matrix processor architecture that targets numerically intensive algorithms that can be cast in matrix terms.
Thesis (Ph.D.)--University of Adelaide, Dept. of Electrical and Electronic Engineering, Advisory Centre for University Education, 2000
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía