Academic literature on the topic 'Architecture-algorithm adequation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Architecture-algorithm adequation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Architecture-algorithm adequation"

1

Ni, Yang. "Electronic retina based vision systems an adequation algorithm-architecture application approach." Annales des Télécommunications 59, no. 3-4 (March 2004): 287–303. http://dx.doi.org/10.1007/bf03179699.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Blaiech, Ahmed Ghazi, Khaled Ben Khalifa, Mohamed Boubaker, Mohamed Akil, and Mohamed Hedi Bedoui. "Integration of Optimization Approach Based on Multiple Wordlength Operation Grouping in the AAA Methodology for Real-Time Systems." International Journal of Embedded and Real-Time Communication Systems 5, no. 1 (January 2014): 37–60. http://dx.doi.org/10.4018/ijertcs.2014010103.

Full text
Abstract:
The Multiple-Wordlength Operation Grouping (MWOG) is a recently used approach for an optimized implementation on a Field Programmable Gate Array (FPGA). By fixing the precision constraint, this approach allows minimizing the data wordlength. In this paper, the authors present the integration of the approach based on the MWOG in the Algorithm Architecture Adequation (AAA) methodology, designed to implement real-time applications onto reconfigurable circuits. This new AAA-MWOG methodology will improve the optimization phase of the AAA methodology by taking into account the data wordlength and creating approximative-wordlength operation groups, where the operations in the same group will be performed with the same operator. The AAA-MWOG methodology will allow a considerable gain of circuit resources. This contribution is demonstrated by implementing the Learning Vector Quantization (LVQ) neural-networks model on the FPGA. The LVQ optimization is used to quantify vigilance states starting from processing the electroencephalographic signal. The precision-gain relation has been studied and reported.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Architecture-algorithm adequation"

1

Njiki, Mickaël. "Architecture matérielle pour la reconstruction temps réel d'images par focalisation en tout point (FTP)." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112161.

Full text
Abstract:
Le contrôle non destructif (CND) a pour but de détecter et de caractériser d’éventuels défauts présents dans des pièces mécaniques. Les techniques ultrasonores actuelles utilisent des capteurs multiéléments associés à des chaînes d’instrumentations et d’acquisitions de données multi capteurs en parallèles. Compte tenu de la masse de données à traiter, l’analyse de ces dernières est généralement effectuée hors ligne. Des travaux en cours, au Commissariat à l’Energie Atomique (CEA), consistent à développer et évaluer différentes méthodes d’imageries avancées, basées sur la focalisation synthétique. Les algorithmes de calculs induits nécessitent d’importantes opérations itératives sur un grand volume de données, issues d’acquisition multiéléments. Ceci implique des temps de calculs important, imposant un traitement en différé. Les contraintes industrielles de caractérisation de pièces mécaniques in situ imposent de réaliser la reconstruction d’images lors de la mesure et en temps réel. Ceci implique d’embarquer dans l’appareil de mesure, toute l’architecture de calcul sur les données acquises des capteurs. Le travail de thèse a donc consisté à étudier une famille d’algorithmes de focalisation synthétique pour une implantation temps réel sur un instrument de mesure permettant de réaliser l’acquisition de données. Nous avons également étudié une architecture dédiée à la reconstruction d’images par la méthode de Focalisation en Tout Point (FTP). Ce travail a été réalisé dans le cadre d’une collaboration avec l’équipe ACCIS de l’institut d’Electronique Fondamentale, Université de Paris Sud. Pour ce faire, notre démarche s’est inspirée de la thématique de recherche d’Adéquation Algorithme Architecture (A3). Notre méthodologie, est basée sur une approche expérimentale consistant dans un premier temps en une décomposition de l’algorithme étudié en un ensemble de blocs fonctionnels (calculs/transferts). Cela nous a permis de réaliser l’extraction des blocs pertinents de calculs à paralléliser et qui ont une incidence majeure sur les temps de traitement. Nous avons orienté notre stratégie de développement vers une conception flot de donnée. Ce type de modélisation permet de favoriser les flux de données et de réduire les flux de contrôles au sein de l’architecture matérielle. Cette dernière repose sur une plateforme multi-FPGA. La conception et l’évaluation de telles architectures ne peuvent se faire sans la mise en place d’outils logiciels d’aide à la validation tout au long du processus de la conception à l’implantation. Ces outils faisant partie intégrante de notre méthodologie. Les modèles architecturaux des briques de calculs ont été validés au niveau fonctionnel puis expérimental, grâce à la chaîne d’outils développée. Cela inclus un environnement de simulation nous permettant de valider sur tables les briques partielles de calculs ainsi que le contrôle associé. Enfin, cela a nécessité la conception d’outils de génération automatique de vecteurs de tests, à partir de données de synthèses (issues de l’outil simulation CIVA développé par le CEA) et de données expérimentales (à partir de l’appareil d’acquisition de la société M2M-NDT). Enfin, l’architecture développée au cours de ce travail de thèse permet la reconstruction d’images d’une résolution de 128x128 pixels, à plus de 10 images/sec. Ceci est suffisant pour le diagnostic de pièces mécaniques en temps réel. L’augmentation du nombre d’éléments capteurs ultrasonores (128 éléments) permet des configurations topologiques plus évoluées (sous forme d’une matrice 2D), ouvrant ainsi des perspectives vers la reconstruction 3D (d’un volume d’une pièce). Ce travail s’est soldé par une mise en œuvre validée sur l’instrument de mesure développé par la société M2M-NDT
Non-destructive Evaluation (NDE) regroups a set of methods used to detect and characterize potential defects in mechanical parts. Current techniques uses ultrasonic phased array sensors associated with instrumentation channels and multi-sensor data acquisition in parallel. Given the amount of data to be processed, the analysis of the latter is usually done offline. Ongoing work at the French “Commissariat à l’Energie Atomique” (CEA), consist to develop and evaluate different methods of advanced imaging based on synthetic focusing. The Algorithms induced require extensive iterative operations on a large volume of data from phased array acquisition. This involves important time for calculations and implies offline processing. However, the industrial constraint requires performing image reconstruction in real time. This involves the implementation in the measuring device, the entire computing architecture on acquired sensor data. The thesis has been to study a synthetic focusing algorithm for a real-time implementation in a measuring instrument used to perform ultrasonic data acquisition. We especially studied an image reconstruction algorithm called Total Focusing Method (TFM). This work was conducted as part of collaboration with the French Institute of Fundamental Electronics Institute team of the University of Paris Sud. To do this, our approach is inspired by research theme called Algorithm Architecture Adequation (A3). Our methodology is based on an experimental approach in the first instance by a decomposition of the studied algorithm as a set of functional blocks. This allowed us to perform the extraction of the relevant blocks to parallelize computations that have a major impact on the processing time. We focused our development strategy to design a stream of data. This type of modeling can facilitate the flow of data and reduce the flow of control within the hardware architecture. This is based on a multi- FPGA platform. The design and evaluation of such architectures cannot be done without the introduction of software tools to aid in the validation throughout the process from design to implementation. These tools are an integral part of our methodology. Architectural models bricks calculations were validated functional and experimental level, thanks to the tool chain developed. This includes a simulation environment allows us to validate partial calculation blocks and the control associated. Finally, it required the design of tools for automatic generation of test vectors, from data summaries (from CIVA simulation tool developed by CEA) and experimental data (from the device to acquisition of M2M –NDT society). Finally, the architecture developed in this work allows the reconstruction of images with a resolution of 128x128 pixels at more than 10 frames / sec. This is sufficient for the diagnosis of mechanical parts in real time. The increase of ultrasonic sensor elements (128 elements) allows more advanced topological configurations (as a 2D matrix) and providing opportunities to 3D reconstruction (volume of a room). This work has resulted in implementation of validated measurement instrument developed by M2M -NDT
APA, Harvard, Vancouver, ISO, and other styles
2

Lefebvre, Thomas. "Exploration architecturale pour la conception d'un système sur puce de vision robotique, adéquation algorithme-architecture d'un système embarqué temps-réel." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00782081.

Full text
Abstract:
La problématique de cette thèse se tient à l'interface des domaines scientifiques de l'adéquation algorithme architecture, des systèmes de vision bio-inspirée en robotique mobile et du traitement d'images. Le but est de rendre un robot autonome dans son processus de perception visuelle, en intégrant au sein du robot cette tâche cognitive habituellement déportée sur un serveur de calcul distant. Pour atteindre cet objectif, l’approche de conception employée suit un processus d'adéquation algorithme architecture, où les différentes étapes de traitement d'images sont analysées minutieusement. Les traitements d'image sont modifiés et déployés sur une architecture embarquée de façon à respecter des contraintes d'exécution temps-réel imposées par le contexte robotique. La robotique mobile est un sujet de recherche académique qui s'appuie notamment sur des approches bio-mimétiques. La vision artificielle étudiée dans notre contexte emploie une approche bio-inspirée multirésolution, basée sur l'extraction et la mise en forme de zones caractéristiques de l'image. Du fait de la complexité de ces traitements et des nombreuses contraintes liées à l'autonomie du robot, le déploiement de ce système de vision nécessite une démarche rigoureuse et complète d'exploration architecturale logicielle et matérielle. Ce processus d'exploration de l'espace de conception est présenté dans cette thèse. Les résultats de cette exploration ont mené à la conception d'une architecture principalement composée d'accélérateurs matériels de traitements (IP) paramétrables et modulaires, qui sera déployée sur un circuit reconfigurable de type FPGA. Ces IP et le fonctionnement interne de chacun d'entre eux sont décrits dans le document. L'impact des paramètres architecturaux sur l'utilisation des ressources matérielles est étudié pour les traitements principaux. Le déploiement de la partie logicielle restante est présenté pour plusieurs plate-formes FPGA potentielles. Les performances obtenues pour cette solution architecturale sont enfin présentées. Ces résultats nous permettent aujourd'hui de conclure que la solution proposée permet d'embarquer le système de vision dans des robots mobiles en respectant les contraintes temps-réel qui sont imposées.
APA, Harvard, Vancouver, ISO, and other styles
3

Romero, Mier y. Teran Andrés. "Real-time multi-target tracking : a study on color-texture covariance matrices and descriptor/operator switching." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-01002065.

Full text
Abstract:
Visual recognition is the problem of learning visual categories from a limited set of samples and identifying new instances of those categories, the problem is often separated into two types: the specific case and the generic category case. In the specific case the objective is to identify instances of a particular object, place or person. Whereas in the generic category case we seek to recognize different instances that belong to the same conceptual class: cars, pedestrians, road signs and mugs. Specific object recognition works by matching and geometric verification. In contrast, generic object categorization often includes a statistical model of their appearance and/or shape.This thesis proposes a computer vision system for detecting and tracking multiple targets in videos. A preliminary work of this thesis consists on the adaptation of color according to lighting variations and relevance of the color. Then, literature shows a wide variety of tracking methods, which have both advantages and limitations, depending on the object to track and the context. Here, a deterministic method is developed to automatically adapt the tracking method to the context through the cooperation of two complementary techniques. A first proposition combines covariance matching for modeling characteristics texture-color information with optical flow (KLT) of a set of points uniformly distributed on the object . A second technique associates covariance and Mean-Shift. In both cases, the cooperation allows a good robustness of the tracking whatever the nature of the target, while reducing the global execution times .The second contribution is the definition of descriptors both discriminative and compact to be included in the target representation. To improve the ability of visual recognition of descriptors two approaches are proposed. The first is an adaptation operators (LBP to Local Binary Patterns ) for inclusion in the covariance matrices . This method is called ELBCM for Enhanced Local Binary Covariance Matrices . The second approach is based on the analysis of different spaces and color invariants to obtain a descriptor which is discriminating and robust to illumination changes.The third contribution addresses the problem of multi-target tracking, the difficulties of which are the matching ambiguities, the occlusions, the merging and division of trajectories.Finally to speed algorithms and provide a usable quick solution in embedded applications this thesis proposes a series of optimizations to accelerate the matching using covariance matrices. Data layout transformations, vectorizing the calculations (using SIMD instructions) and some loop transformations had made possible the real-time execution of the algorithm not only on Intel classic but also on embedded platforms (ARM Cortex A9 and Intel U9300).
APA, Harvard, Vancouver, ISO, and other styles
4

Vincke, Bastien. "Architectures pour des systèmes de localisation et de cartographie simultanées." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00770323.

Full text
Abstract:
La robotique mobile est un domaine en plein essor. L'un des domaines de recherche consiste à permettre à un robot de cartographier son environnement tout en se localisant dans l'espace. Les techniques couramment employées de SLAM (Simultaneous Localization And Mapping) restent généralement coûteuses en termes de puissance de calcul. La tendance actuelle vers la miniaturisation des systèmes impose de restreindre les ressources embarquées. L'ensemble de ces constatations nous ont guidés vers l'intégration d'algorithmes de SLAM sur des architectures adéquates dédiées pour l'embarqué.Les premiers travaux ont consisté à définir une architecture permettant à un robot mobile de se localiser. Cette architecture doit respecter certaines contraintes, notamment celle du temps réel, des dimensions réduites et de la faible consommation énergétique.L'implantation optimisée d'un algorithme (EKF-SLAM), en utilisant au mieux les spécificités architecturales du système (capacités des processeurs, implantation multi-cœurs, calcul vectoriel ou parallélisation sur architecture hétérogène), a permis de démontrer la possibilité de concevoir des systèmes embarqués pour les applications SLAM dans un contexte d'adéquation algorithme architecture. Une seconde approche a été explorée ayant pour objectif la définition d'un système à base d'une architecture reconfigurable (à base de FPGA) permettant la conception d'une architecture fortement parallèle dédiée au SLAM. L'architecture définie a été évaluée en utilisant une méthodologie HIL (Hardware in the Loop).Les principaux algorithmes de SLAM sont conçus autour de la théorie des probabilités, ils ne garantissent en aucun cas les résultats de localisation. Un algorithme de SLAM basé sur la théorie ensembliste a été défini garantissant l'ensemble des résultats obtenus. Plusieurs améliorations algorithmiques sont ensuite proposées. Une comparaison avec les algorithmes probabilistes a mis en avant la robustesse de l'approche ensembliste.Ces travaux de thèse mettent en avant deux contributions principales. La première consiste à affirmer l'importance d'une conception algorithme-architecture pour résoudre la problématique du SLAM. La seconde est la définition d'une méthode ensembliste permettant de garantir les résultats de localisation et de cartographie.
APA, Harvard, Vancouver, ISO, and other styles
5

Waltsburger, Hugo. "Methodology and tooling for energy-efficient neural networks computation and optimization." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST195.

Full text
Abstract:
Les réseaux de neurones ont connu d'impressionnants développements depuis l'émergence de l'apprentissage profond, vers 2012, et sont désormais l'état de l'art de toute une gamme de tâches automatisées, telles que le traitement automatique du langage naturel, la classification, la prédiction, etc. Néanmoins, dans un contexte où la recherche se focalise sur l'optimisation d'un unique indicateur de performance -- typiquement, le taux d'exactitude --, il apparaît que les performances tendent à croître de façon fiable, voire prévisible, en fonction de la taille du jeu de données d'entraînement, du nombre de paramètres, et de la quantité de calculs réalisés pendant l'entraînement. Les progrès réalisés sont-ils alors plus le fait des recherches menées dans le domaine des réseaux de neurones, ou celui de l'écosystème logiciel et matériel sur lequel il s'appuie ? Afin de répondre à cette question, nous avons créé une nouvelle figure de mérite illustrant les choix architecturaux faits entre capacités et complexité. Nous avons choisi pour estimer la complexité d'utiliser la consommation énergétique lors de l'inférience, de sorte à représenter l'adéquation entre l'algorithme et l'architecture. Nous avons établi une façon de mesurer cette consommation énergétique, confirmé sa pertinence, et établi un classement de réseaux de neurones de l'état de l'art selon cette méthodologie. Nous avons ensuite exploré comment différents paramètres d'exécution influencent notre score, et comment le rafiner en allant de l'avant, en insistant sur le besoin de "fonction objectif" adaptées au cas d'usage. Nous finissons en établissant diverses façons de poursuivre le travail entamé durant cette thèse
Neural networks have seen impressive developments since the emergence of deep learning, around 2012, and are now the state of the art for diverse tasks, such as natural language processing, classification, prediction, autonomous systems etc. However, as the research tends to focus around the optimization of a single performance metric -- typically accuracy --, it appears that performances tend to scale reliably and even predictably with the size of the training dataset, the neural network's complexity and the total amount of training compute. In this context, we ask how much of the recent progress in the field of neural networks can be attributed to progress made in compute, software support, and hardware optimization. To answer this question, we created a new figure of merit illustrating tradeoffs between the complexity and capability of a network. We used the measured energy consumption per inference as an estimator of complexity and a way of representing the adequation between the algorithm and the architecture. We established a way of measuring this energy consumption, verified its relevance, and benchmarked networks from the state of the art according to this methodology. We then explored how different execution parameters influence our score, and how to further refine it, insisting on the need for diverse objective functions reflecting different usecases in the field of neural networks. We end by acknowledging the social and environmental responsibility of the neural network field, and lay out the envisioned continuation of our work
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography