Dissertations / Theses on the topic 'Adaptation à l'utilisateur'

To see the other types of publications on this topic, follow the link: Adaptation à l'utilisateur.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 44 dissertations / theses for your research on the topic 'Adaptation à l'utilisateur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Artusi, Xavier. "Interface Cerveau Machine avec adaptation automatique à l'utilisateur." Phd thesis, Ecole centrale de nantes - ECN, 2012. http://tel.archives-ouvertes.fr/tel-00822833.

Full text
Abstract:
Nous nous intéressons ici à une interface cerveau-machine (BCI, Brain Computer Interface) permettant de commander une prothèse par la pensée. Le rôle du BCI est de décoder à partir de signaux électroencéphalographiques (EEG) le mouvement désiré par le sujet. Le coeur du BCI est un algorithme de classification caractérisé par le choix des descripteurs des signaux et des règles de décision. L'objet de cette thèse est de développer un système BCI précis, capable d'améliorer ses performances en cours d'utilisation et de s'adapter à l'utilisateur sans nécessiter de multiples sessions d'apprentissage. Nous combinons deux moyens pour y parvenir. Le premier consiste à augmenter la précision du système de décision en recherchant des descripteurs pertinents vis à vis de l'objectif de classification. Le second est d'inclure un retour de l'utilisateur sur le système de décision : l'idée est d'estimer l'erreur du BCI à partir de potentiels cérébraux évoqués, reflétant l'état émotionnel du patient corrélé au succès ou à l'échec de la décision prise par le BCI, et de corriger le système de décision du BCI en conséquence. Les principales contributions de la thèse sont les suivantes : nous avons proposé une méthode d'optimisation de descripteurs à bases d'ondelettes pour des signaux EEG multivoies ; nous avons quantifié théoriquement l'amélioration des performances apportée par le détecteur ; un simulateur du système corrigé et bouclé a été développé pour observer le comportement du système global et comparer différentes stratégies de mise à jour de l'ensemble d'apprentissage ; le système complet a été implémenté et fonctionne en ligne dans des conditions réelles.
APA, Harvard, Vancouver, ISO, and other styles
2

Artusi, Xavier. "Interface cerveau machine avec adaptation automatique à l'utilisateur." Phd thesis, Ecole centrale de Nantes, 2012. http://www.theses.fr/2012ECDN0018.

Full text
Abstract:
Nous nous intéressons ici à une interface cerveau-machine (BCI, Brain Computer Interface) permettant de commander une prothèse par la pensée. Le rôle du BCI est de décoder à partir de signaux électroencéphalographiques (EEG) le mouvement désiré par le sujet. Le cœur du BCI est un algorithme de classification caractérisé par le choix des descripteurs des signaux et des règles de décision. L’objet de cette thèse est de développer un système BCI précis, capable d’améliorer ses performances en cours d’utilisation et de s’adapter à l’utilisateur sans nécessiter de multiples sessions d’apprentissage. Nous combinons deux moyens pour y parvenir. Le premier consiste à augmenter la précision du système de décision en recherchant des descripteurs pertinents vis à vis de l’objectif de classification. Le second est d’inclure un retour de l’utilisateur sur le système de décision : l’idée est d’estimer l’erreur du BCI à partir de potentiels cérébraux évoqués, reflétant l’état émotionnel du patient corrélé au succès ou à l’échec de la décision prise par le BCI, et de corriger le système de décision du BCI en conséquence. Les principales contributions de la thèse sont les suivantes : nous avons proposé une méthode d’optimisation de descripteurs à bases d’ondelettes pour des signaux EEG multivoies ; nous avons quantifié théoriquement l’amélioration des performances apportée par le détecteur ; un simulateur du système corrigé et bouclé a été développé pour observer le comportement du système global et comparer différentes stratégies de mise à jour de l’ensemble d’apprentissage ; le système complet a été implémenté et fonctionne en ligne dans des conditions réelles
We study a brain computer interface (BCI) to control a prosthesis with thought. The aim of the BCI is to decode the movement desired by the subject from electroencephalographic (EEG) signals. The core of the BCI is a classification algorithm characterized by the choice of signals descriptors and decision rules. The purpose of this thesis is to develop an accurate BCI system, able to improve its performance during its use and to adapt to the user evolutions without requiring multiple learning sessions. We combine two ways to achieve this. The first one is to increase the precision of the decision system by looking for relevant descriptors for the classification. The second one is to include a feedback to the user on the system decision : the idea is to estimate the error of the BCI from evoked brain poten tials, reflecting the emotional state of the patient correlated to the success or failure of the decision taken by the BCI, and to correct the decision system of the BCI accordingly. The main contributions are : we have proposed a method to optimize the feature space based on wavelets for multi-channel EEG signals ; we quantified theoretically the performances of the complete system improved by the detector ; a simulator of the corrected and looped system has been developed to observe the behavior of the overall system and to compare different strategies to update the learning set ; the complete system has been implemented and works online in real conditions
APA, Harvard, Vancouver, ISO, and other styles
3

Naderi, Hassan. "Accès personnalisé à l'information-adaptation au contexte de l'utilisateur." Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0005/these.pdf.

Full text
Abstract:
The information found on the Internet is growing at such a rapid rate that soon methods of searching through text using terms frequencies will not be enough. One stream of thought is devoted to personalizing the search, which means taking into account the specific traits and background of a user when answering that user's query. We believe that user's profile, user's community, and user's context are the three main issues to tackle the problem of the ever growing World Wide Web. The thesis investigates the combination of these three streams of thought. In the first part of this thesis, we develop a PERsonalized and Collaborative Information Retrieval System (called PERCIRS), which makes use of the first two factures (profile and community). PERCIRS creates a ranked list for the query q of the user U based on the documents selected by similar users to U which have been considered as relevant to the similar queries to q. The effectiveness of method for finding the similar users plays an important role in PERCIRS's effectiveness. To this aim, we have proposed three categories of formulas to calculate the similarity between two user profiles: equality-based, similarity-based and graph-based. In order to find the optimal category we proposed two evaluation mechanisms: categorization-based and classification-based. Both of these two mechanisms agreed on the graph-based user profile calculation formulas as the optimal formulas. As PERCIRS is a personalized IR system (due to considering user profiles), it can not be evaluated by Cranfield like evaluation mechanisms (e. G. TREC). Hence in this thesis we propose a new mechanism which enables us to evaluate it with the other classical IR systems such as BM25-Okapi. In the second part, the user's context is used to adapt a found document by PERCIRS to user's preferences. We propose to physically and semantically adapt a given document based on the user's profile and context's profile. A mechanism is also proposed to navigate into the adapted documents according to user's preferences
Les informations disponibles sur l'Internet se développent à un rythme tel que bientôt les méthodes de recherche textuelle utilisant la fréquence des termes ne seront plus suffisantes. Un courant de pensée est consacré à la personnalisation de la recherche, à savoir prendre en compte des traits spécifiques et le contexte de l’utilisateur pour répondre à sa requête. Nous pensons que le profil, la communauté, et le contexte de l'utilisateur sont les trois concepts essentiels à envisager pour faire face au problème de la croissance du World Wide Web. La thèse étudie la combinaison de ces trois courants de pensée. Dans la première partie de cette thèse, nous développons un système de recherche d’information personnalisé et collaboratif (appelé PERCIRS), qui utilise les deux premiers concepts (le profil et la communauté). PERCIRS crée une liste classée de documents pertinents, pour la requête q de l'utilisateur U. Cette classification se fait sur la base des documents sélectionnés pour les requêtes semblables à q par les utilisateurs au profil similaire à celui de U. Le choix de la méthode de recherche d’utilisateurs similaires joue un rôle important dans l’efficacité de PER-CIRS. À cette fin, nous avons proposé trois catégories de formules pour calculer la similarité entre deux profils d'utilisateurs: formule fondée sur l'égalité, formule fondée sur la similarité et enfin une formule fondée sur les graphes. Afin de trouver la catégorie optimale, nous avons proposé deux mécanismes d'évaluation: fondés sur les concepts de la catégorisation et de la classification. Ces deux mécanismes s’appuient sur les formules de calcul de profil utilisateur fondées sur les graphes. PERCIRS étant un système de recherche d’information (SRI) personnalisé (en raison de la prise en compte des profils d'utilisateur), il ne peut pas être évalué par des mécanismes d'évaluation tels que Cranfield (par exemple TREC). Par conséquent, dans cette thèse, nous proposons un nouveau mécanisme qui permet de l'évaluer en même temps que les autres SRI classiques tels que BM25 – Okapi. Dans la deuxième partie de ce travail de thèse,, le contexte de l'utilisateur est utilisé pour adapter, aux préférences de l'utilisateur, un document trouvé par PERCIRS. Nous proposons d'adapter physiquement et sémantiquement un document selon le profil de l'utilisateur et selon le profil de contexte. Un mécanisme est également proposé pour naviguer dans des documents adaptés en fonction des préférences de l'utilisateur
APA, Harvard, Vancouver, ISO, and other styles
4

Bouzit, Sara. "Plasticité de l'interaction Homme-Machine : présentation à l'utilisateur, une question de compromis." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM023/document.

Full text
Abstract:
La thèse s'inscrit dans le domaine de l'ingénierie de l'interaction Homme-Machine. Elle porte sur la plasticité des Interfaces Homme-Machine (IHM), c'est-à-dire leur capacité à s'adapter à leur contexte d'usage dans le respect des bonnes propriétés pour l'humain. Plus précisément, l'objet d'étude est la transformation de l'IHM pour accélérer l'interaction
Research contributes to the engineering of Human Computer Interaction. It deals with the plasticity property, i.e. the ability of User Interfaces to withstand variations of the context of use while preserving user centered properties. More specifically, the object under study is the UI transformation for speeding up interaction
APA, Harvard, Vancouver, ISO, and other styles
5

Naderi, Hassan Pinon Jean-Marie Rumpler Béatrice. "Accès personnalisé à l'information-adaptation au contexte de l'utilisateur rsonalized information retrieval and adaptation to user's context /." Villeurbanne : Doc'INSA, 2009. http://docinsa.insa-lyon.fr/these/pont.php?id=naderi.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Galindo, losada Julian. "Adaptation des interfaces utilisateurs aux émotions." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM021/document.

Full text
Abstract:
L'expérience utilisateur (UX) est aujourd’hui acceptée comme un facteur de qualité important pour le succès des systèmes informatiques ou des logiciels. Elle dépend de dimensions comme l'émotion, l'esthétique, le plaisir ou la confiance. Parmi ces dimensions, l'importance de la facilité d'utilisation et de l’esthétique est reconnue. Ces deux aspects doivent donc être considérés lors de la conception d’interfaces utilisateur.Cela soulève la question de comment les concepteurs peuvent vérifier UX à l’exécution et l’améliorer si nécessaire. Pour obtenir une bonne qualité d’interface utilisateur en tout contexte d’usage (c.-à-d. utilisateur, plate-forme et environnement), la plasticité propose d’adapter l’interface utilisateur au contexte tout en préservant l’utilisabilité. De manière similaire, notre objectif est de préserver ou d’améliorer UX à l’exécution, en proposant des adaptations des interfaces utilisateur aux émotions des utilisateurs. Les adaptations peuvent concerner l’esthétique ou l’utilisabilité.Ainsi la question de recherche abordée dans ce doctorat est comment conduire l’adaptation des interfaces utilisateur avec un modèle de l’utilisateur basé sur les émotions et les caractéristiques de l’utilisateur (âge et sexe).Notre approche vise à personnaliser les interfaces utilisateurs avec les émotions de l’utilisateur au moment de l’exécution. Une architecture, Perso2U, a été conçue pour adapter les ’interfaces en fonction de leurs émotions et de leurs âge et sexe. Le Perso2U comprend trois composantes principales : (1) un moteur d’inférence, (2) un moteur d’adaptation et (3) le système interactif. Premièrement, le moteur d’inférence reconnaît la situation de l’utilisateur et en particulier ses émotions (joie, colère, dégoût, tristesse, surprise, peur, mépris) qui sont dans le modèle d’émotion Ekman plus l’émotion neutre. Deuxièmement, après l’inférence sur les émotions, la structure d’interface la mieux adaptée est sélectionnée et l’ensemble des paramètres de l’interface utilisateur (audio, taille de la police, Widgets, disposition de l’interface utilisateur, etc.) est calculé en fonction de ces émotions détectées. Troisièmement, ce calcul d’une structure d’interface utilisateur et de paramètres appropriés permet à l’interface utilisateur d’exécuter des changements à l’exécution visant à fournir une meilleure interface utilisateur. Puisque la reconnaissance des émotions est exécutée cycliquement, alors il est possible d’adapter les interfaces utilisateur à l’exécution.Puisque cette approche repose sur des outils de reconnaissance des émotions, nous avons mené une expérience pour étudier la similitude de la détection des émotions des visages à partir d’ouitls existants afin de comprendre si cette détection est indépendante de l’outil de reconnaissance des émotions ou non. Les résultats ont confirmé que les émotions détectées par les outils fournissent des valeurs émotionnelles similaires.Comme l’UX dépend de facteurs de qualité de l’interaction utilisateur comme l’esthétique et la facilité d'utilisation, et de caractéristiques individuelles telles que l’âge et le sexe, nous avons effectué une deuxième analyse expérimentale. Elle tend à montrer que : (1) les facteurs de qualité de l’interface utilisateur (esthétique et/ou utilisabilité) influencent les émotions de l’utilisateur en fonction de l’âge et du sexe, (2) le niveau (élevé et/ou faible) des facteurs de qualité de l’interface utilisateur semblent avoir une incidence différente sur les émotions selon l’âge et le sexe. À partir de ces résultats, nous définissons des seuils en fonction de l’âge et du sexe qui permettent au moteur d’inférence de détecter les problèmes d’utilisabilité et/ou d’esthétique
User interfaces adaptation by using emotions.Perso2U, an approach to personalize user interfaces with user emotions.User experience (UX) is nowadays recognized as an important quality factor to make systems or software successful in terms of user take-up and frequency of usage. UX depends on dimensions like emotion, aesthetics or visual appearance, identification, stimulation, meaning/value or even fun, enjoyment, pleasure, or flow. Among these dimensions, the importance of usability and aesthetics is recognized. So, both of them need to be considered while designing user interfaces (UI).It raises the question how designers can check UX at runtime and improve it if necessary. To achieve a good UI quality in any context of use (i.e. user, platform and environment), plasticity proposes to adapt UI to the context while preserving user-centered properties. In a similar way, our goal is to preserve or improve UX at runtime, by proposing UI adaptations. Adaptations can concern aesthetics or usability. They can be triggered by the detection of specific emotion, that can express a problem with the UI.So the research question addressed in this PhD is how to drive UI adaptation with a model of the user based on emotions and user characteristics (age & gender) to check or improve UX if necessary.Our approach aims to personalize user interfaces with user emotions at run-time. An architecture, Perso2U, has been designed to adapt the UI according to emotions and user characteristics (age and gender). Perso2U includes three main components: (1) Inferring Engine, (2) Adaptation Engine and (3) Interactive System. First, the inferring engine recognizes the user’s situation and in particular him/her emotions (happiness, anger, disgust, sadness, surprise, fear, contempt) plus neutral which are into Ekman emotion model. Second, after emotion recognition, the best suitable UI structure is chosen and the set of UI parameters (audio, Font-size, Widgets, UI layout, etc.) is computed based on such detected emotions. Third, this computation of a suitable UI structure and parameters allows the UI to execute run-time changes aiming to provide a better UI. Since the emotion recognition is performed cyclically then it allows UI adaptation at run-time.To go further into the inferring engine examination, we run two experiments about the (1) genericity of the inferring engine and (2) UI influence on detected emotions regarding age and gender.Since this approach relies on emotion recognition tools, we run an experiment to study the similarity of detecting emotions from faces to understand whether this detection is independent from the emotion recognition tool or not. The results confirmed that the emotions detected by the tools provide similar emotion values with a high emotion detection similarity.As UX depends on user interaction quality factors like aesthetics and usability, and on individual characteristics such as age and gender, we run a second experimental analysis. It tends to show that: (1) UI quality factors (aesthetics and/or usability) influences user emotions differently based on age and gender, (2) the level (high and/or low) of UI quality factors seem to impact emotions differently based on age and gender. From these results, we define thresholds based on age and gender that allow the inferring engine to detect usability and/or aesthetics problems
APA, Harvard, Vancouver, ISO, and other styles
7

Maïs, Chantal. "L' adaptation de l'aide à l'utilisateur : aider les programmeurs occasionnels à opérationaliser leurs plans sous-optimaux." Aix-Marseille 1, 1989. http://www.theses.fr/1989AIX10004.

Full text
Abstract:
Cette these est une critique psychologique du type d'assistance que les systemes d'aide actuels fournissent aux utilisateurs occasionnels de dispositifs informatiques. La critique porte precisement sur l'adequation du modele de reference (representation des connaissances acquises ou a acquerir par l'utilisateur) utilise par les systemes pour interpreter les actions de l'utilisateur et definir les aides dont il a besoin. Le modele de reference couramment utilise dans les systemes d'aide actuels est principalement le modele de l'expert du domaine. La these montre, a partir de l'analyse psychologique de l'activite des programmeurs occasionnels, l'inadequation du modele expert pour interpreter le comportement de cette categorie d'utilisateurs. La these montre egalement l'inadequation de ce modele pour definir les aides qui repondent aux besoins et attentes des utilisateurs occasionnels. L'utilisation du modele expert suppose en effet que ces derniers cherchent, comme l'expert, a atteindre une solution optimale (principe d'optimisation) alors qu'ils cherchent a atteindre une solution satisfaisante (principe d'operationalisation), en elaborant des plans-optimaux. De ce fait, ils ne peuvent exploiter les aides, solutions fournies a partir du modele expert, trop eloignees de leur representation du probleme. Cette these suggere d'aider les programmeurs occasionnels a realiser leurs plans sousoptimaux (aide a l'operationalisation) et plus generalement de construire des modeles de reference stereotypiques de la categorie d'utilisateurs auxquels s'adresse l'aide
This thesis criticizes, from a psychological point of view, the kind of assistance provided by current help systems to casual users of computing devices. The criticism turns on the appropriateness of the reference model (i. E. The representation of the knowledge acquired or to be acquired by the user) used by those systems for interpreting user's actions and for defining the assistance they need. The reference model generally used in current help systems is mainly some expert model. The thesis shows, from a psychological analysis of the activity of some casual programmers, the inappropriateness of the expert model for interpreting the behavior of this category of users. Likewise the thesis shows the inappropriateness of the expert model for defining the assistance that meets casual users'needs and expectations. In fact, the use of some expert model implies that casual users, like experts, attempt to achieve some optimal solution (optimization principle) whereas they attempt to achieve some satisficing solution more often (operationalization principle), by elaborating sub-optimal plans. Thereby they cannot exploit helps and solutions given in terms of the expert model, because they are too far from their representation of the problem. Thus the thesis suggests to design systems that help casual programmers to realize their sub-optimal plans (help to operationalization). More generally, it is suggested to provide help systems with a reference model that is stereotypical of the category of users to whom the help is adressed
APA, Harvard, Vancouver, ISO, and other styles
8

Dedieu, Sébastien. "Adaptation d'un système de reconstruction de modèles numériques 3D à partir de photographies face aux connaissances de l'utilisateur." Bordeaux 1, 2001. http://www.theses.fr/2001BOR12481.

Full text
Abstract:
Dans le cadre de la synthèse d'images 3D, le modèle numérique d'une scène est traditionnellement conçu à l'aide de logiciels complexes d'utilisation appelés modeleurs, puis est fourni à un logiciel de rendu qui produit l'image. Récemment, des méthodes de reconstruction basées sur l'utilisation de données photographiques ont émergé. La direction que nous suivons dans les travaux présentés ici consiste à intégrer l'utilisateur à ce processus de reconstruction de façon à résoudre les ambigui͏̈tés et les imprécisions. Nous nous sommes particulièrement intéressés aux apports de connaissances que peut fournir l'utilisateur tant sur la géométrie de la scène (coordonnées, contraintes métriques ou angulaires) que sur les propriétés de l'appareil photographique. Nous proposons ainsi un algorithme itératif appelé ajustement de faisceaux s'adaptant aux informations disponibles. Même dans le cas défavorable où l'utilisateur ne fournit aucune donnée sur la scène à reconstruire, le système de reconstruction reste opérationnel (auto-calibrage). Dans le but d'habiller au mieux un modèle géométrique ainsi obtenu, nous proposons une méthode d'extraction de textures paramétrable prenant en compte l'orientation de la surface et sa prépondérance par rapport aux différents clichés photographiques. Enfin, dans l'objectif de reconstruire des objets toujours plus complexes, nous proposons aussi un moyen de représenter et calculer le modèle numérique de certains objets aux formes douces (formes pour lesquelles un nombre important de polygones serait nécessaire pour avoir une approximation raisonnable). Pour valider la robustesse de nos différentes techniques, un logiciel a été développé, Reality. Il permet notamment de reconstruire une scène à partir de points associés sur les photographies (approche constructive) et d'utiliser des objets géométriques déjà connus tels que des boites et des cylindres (approche par reconnaissance) dans le but d'accélérer la constitution du modèle.
APA, Harvard, Vancouver, ISO, and other styles
9

Asfari, Ounas. "Personnalisation et Adaptation de L'accès à L'information Contextuelle en utilisant un Assistant Intelligent." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00650115.

Full text
Abstract:
L'accès à une information pertinente, adaptée aux besoins et au contexte de l'utilisateur est un challenge dans un environnement Internet, caractérisé par une prolifération de ressources hétérogènes. Les travaux présentés dans cette thèse rentrent dans le cadre de la Recherche d'Information (RI) et s'intéressent à la prise en compte du contexte de l'utilisateur pendant la phase de requête. Nous proposons un assistant d'aide à la reformulation de requêtes reposant sur l'utilisation d'une méthode hybride d'expansion de requêtes afin de fournir des résultats personnalisés en fonction du contexte. Cet assistant utilise le profil de l'utilisateur, qui contient les centres d'intérêts et les préférences des utilisateurs, et utilise également le contexte de l'utilisateur qui considère l'état actuel de la tâche courante de l'utilisateur pendant le processus de recherche. Une implémentation de cette approche est réalisée, suivie d'une étude expérimentale. Nous proposons également une procédure d'évaluation qui tient compte l'évaluation des termes d'expansion, générés par notre système de reformulation de requêtes, et de l'évaluation des résultats retournés en utilisant les requêtes reformulées SRQ. Nous montrons sur plusieurs scénarios que notre approche, en particulier celle qui prend en compte la tâche actuelle de l'utilisateur est effectivement plus performante que les approches reposant soit uniquement sur la requête initiale, ou encore sur la requête reformulée en considérant uniquement le profil de l'utilisateur.
APA, Harvard, Vancouver, ISO, and other styles
10

Diallo, Mamadou Tourad. "Quality of experience and video services adaptation." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2015. http://www.theses.fr/2015TELE0010.

Full text
Abstract:
Avec l'hétérogénéité des réseaux et la demande croissante de services multimédias, la Qualité d'Expérience (QoE) devient un facteur déterminant de réussite ou d’échec de ces services. Dans cette thèse, nous avons d’abord analysé l'impact des paramètres de qualité sur l'engagement de l'utilisateur, afin de comprendre l’effet des paramètres vidéo (temps de démarrage, qualité intrinsèque, taux de blocage) et la popularité du service sur l'engagement de l'utilisateur. Nos résultats ont montré que le taux de blocage et la popularité du service sont des paramètres critiques qui impactent fortement la satisfaction et l'engagement de l’utilisateur, tandis que, le temps de démarrage a moins d’impact. Ensuite, les approches subjectives de QoE comme le Mean Opinion Score (MOS) ont été traité dans cette thèse, où les utilisateurs sont appelés à donner une note de satisfaction en fonction des informations de contextes. Une analyse statistique des résultats obtenus à partir de tests utilisateurs a montré que le type de terminal et de contenu sont des paramètres qui impactent fortement le MOS. En plus, des modèles mathématiques d’estimation de QoE en fonction des informations de contextes ont été proposés. Enfin, deux techniques d’optimisations ont été proposées : Le MDASH (MOS Dynamic Adaptive Streaming over HTTP) pour l’optimisation vidéo de flux partageant les mêmes ressources, de manière à garantir une certaine QoE pour tous les utilisateurs. Et une optimisation de livraison, basée sur des fonctions d’utilités dans laquelle, une fonction globale d'utilité est calculée en fonction de différentes contraintes (qui dépendent fortement des stratégies des acteurs de la chaîne de livraison)
With the network heterogeneity and increasing demand of multimedia services, Quality of Experience (QoE) becomes a crucial determinant of the success or failure of these services. In this thesis, we first propose to analyze the impact of quality metrics on user engagement, in order to understand the effects of video metrics (video startup time, average bitrate, buffering ratio) and content popularity on user engagement. Our results show that video buffering and content popularity are critical parameters which strongly impacts the end-user’s satisfaction and user engagement, while the video startup time appears as less significant. On other hand, we consider subjective approaches such as the Mean Opinion Score (MOS) for evaluating QoE, in which users are required to give their assessment according to contextual information. A detailed statistical analysis of our study shows the existence of non-trivial parameters impacting MOS (the type of device and the content type). We propose mathematical models to develop functional relationships between the QoE and the context information which in turn permits us to estimate the QoE. A video content optimization technique called MDASH (for MOS Dynamic Adaptive Streaming over HTTP) is proposed, which improves the perceived QoE for different video sessions sharing the same local network, while taking QoE fairness among users as a leitmotiv. We also propose a utility-based approach for video delivery optimization, in which a global utility function is computed based on different constraints (e.g. target strategies coming from the actors of the delivery chain)
APA, Harvard, Vancouver, ISO, and other styles
11

Diallo, Mamadou Tourad. "Quality of experience and video services adaptation." Thesis, Evry, Institut national des télécommunications, 2015. http://www.theses.fr/2015TELE0010/document.

Full text
Abstract:
Avec l'hétérogénéité des réseaux et la demande croissante de services multimédias, la Qualité d'Expérience (QoE) devient un facteur déterminant de réussite ou d’échec de ces services. Dans cette thèse, nous avons d’abord analysé l'impact des paramètres de qualité sur l'engagement de l'utilisateur, afin de comprendre l’effet des paramètres vidéo (temps de démarrage, qualité intrinsèque, taux de blocage) et la popularité du service sur l'engagement de l'utilisateur. Nos résultats ont montré que le taux de blocage et la popularité du service sont des paramètres critiques qui impactent fortement la satisfaction et l'engagement de l’utilisateur, tandis que, le temps de démarrage a moins d’impact. Ensuite, les approches subjectives de QoE comme le Mean Opinion Score (MOS) ont été traité dans cette thèse, où les utilisateurs sont appelés à donner une note de satisfaction en fonction des informations de contextes. Une analyse statistique des résultats obtenus à partir de tests utilisateurs a montré que le type de terminal et de contenu sont des paramètres qui impactent fortement le MOS. En plus, des modèles mathématiques d’estimation de QoE en fonction des informations de contextes ont été proposés. Enfin, deux techniques d’optimisations ont été proposées : Le MDASH (MOS Dynamic Adaptive Streaming over HTTP) pour l’optimisation vidéo de flux partageant les mêmes ressources, de manière à garantir une certaine QoE pour tous les utilisateurs. Et une optimisation de livraison, basée sur des fonctions d’utilités dans laquelle, une fonction globale d'utilité est calculée en fonction de différentes contraintes (qui dépendent fortement des stratégies des acteurs de la chaîne de livraison)
With the network heterogeneity and increasing demand of multimedia services, Quality of Experience (QoE) becomes a crucial determinant of the success or failure of these services. In this thesis, we first propose to analyze the impact of quality metrics on user engagement, in order to understand the effects of video metrics (video startup time, average bitrate, buffering ratio) and content popularity on user engagement. Our results show that video buffering and content popularity are critical parameters which strongly impacts the end-user’s satisfaction and user engagement, while the video startup time appears as less significant. On other hand, we consider subjective approaches such as the Mean Opinion Score (MOS) for evaluating QoE, in which users are required to give their assessment according to contextual information. A detailed statistical analysis of our study shows the existence of non-trivial parameters impacting MOS (the type of device and the content type). We propose mathematical models to develop functional relationships between the QoE and the context information which in turn permits us to estimate the QoE. A video content optimization technique called MDASH (for MOS Dynamic Adaptive Streaming over HTTP) is proposed, which improves the perceived QoE for different video sessions sharing the same local network, while taking QoE fairness among users as a leitmotiv. We also propose a utility-based approach for video delivery optimization, in which a global utility function is computed based on different constraints (e.g. target strategies coming from the actors of the delivery chain)
APA, Harvard, Vancouver, ISO, and other styles
12

Carrillo, Ramos Angela Cristina. "Agents ubiquitaires pour un accès adapté aux systèmes d'information : Le Framework PUMAS." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00136931.

Full text
Abstract:
L'informatique ubiquitaire est un paradigme récent dont l'objectif est de permettre aux utilisateurs de consulter des données n'importe quand, n'importe où, notamment à l'aide de Dispositifs Mobiles (DM). Dans ce cadre, garantir l'accès par des utilisateurs nomades aux Systèmes d'Information (SI) à travers divers dispositifs, ainsi que l'adaptation de l'information aux préférences de l'utilisateur nomade et au contexte d'utilisation de la session en cours, sont deux problèmes liés non encore résolus. En effet, les utilisateurs nomades de SI peuvent être exposés à une grande quantité d'informations qui n'est pas toujours pertinente ni même simplement supportée par leurs DM. A des fins d'adaptation, un SI doit donc disposer de données sur le contexte d'utilisation – notion qui englobe les conditions temporelles, spatiales, matérielles, etc. dans lesquelles l'utilisateur accède au SI –, mais également sur les préférences de l'utilisateur afin de satisfaire ses attentes à la fois en termes de fonctionnalités, de contenu, et d'affichage.
A travers deux propositions, les travaux de thèse exposés ici tentent d'apporter une réponse à cette double problématique. Tout d'abord, nous avons conçu et réalisé un framework appelé PUMAS qui offre à des utilisateurs nomades un accès à l'information, qui prend en compte le contexte d'utilisation. L'approche que nous avons choisie est celle des agents. Ainsi, l'architecture de PUMAS est composée de quatre Systèmes Multi-Agents (SMA) respectivement dédiés à la connexion aux SI, la communication entre les utilisateurs et les SI, la gestion de l'information et l'adaptation de celle-ci. Ensuite, nous avons élaboré un Système de Gestion de Profil Contextuel (SGPC) qui contribue à l'adaptation de l'information délivrée à un utilisateur nomade sur trois aspects : i) une formalisation de la notion de préférence de l'utilisateur qui permet de modéliser les activités accomplies dans le système, les résultats attendus de ces activités et la manière dont ces résultats sont présentés ; ii) un algorithme de correspondance contextuelle qui génère le profil contextuel d'un utilisateur nomade à partir du contexte d'utilisation ; iii) un mécanisme qui gère les conflits pouvant survenir entre les préférences de l'utilisateur. Enfin, le SGPC a été intégré à PUMAS au sein du SMA dédié à l'adaptation de l'information.
APA, Harvard, Vancouver, ISO, and other styles
13

Popineau, Fabrice. "Approche Logique de la Personnalisation dans les Environnements Informatiques pour l'Apprentissage Humain." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG001.

Full text
Abstract:
Nous présentons ici un ensemble de travaux autour de l'adaptation à l'apprenant dans les environnements informatiques pour l'apprentissage humain (EIAH). Ces travaux s'appuient sur une approche classique de l'intelligence artificielle, fondée essentiellement sur la logique et une approche agent. Nous développons plusieurs arguments sur le bien-fondé du calcul des situations pour piloter ces EIAH. Nous proposons une méthode de transformation des programmes logiques pour adapter le comportement de l'agent à l'utilisateur, ou bien pour donner une personnalité à l'agent. Nous discutons également la possibilité d'intégrer cette approche dans une plateforme de MOOC, pour accompagner les apprenants et pour leur fournir des recommandations personnalisées
We present here a body of works dealing with learner adaptation in Technology Enhanced Learning (TLE) platforms. These works are based on a classical approach of artificial intelligence, essentially grounded on logic and an agent approach. We develop several arguments on the appropriateness of situation calculus to drive these platforms. We propose a method of transforming logic programs to adapt the agent's behavior to the user, or to give a personality to the agent. We also discuss the possibility of integrating this approach in a MOOC platform, to accompany learners and to provide them with personalized recommendations
APA, Harvard, Vancouver, ISO, and other styles
14

Aubry, Willy. "Etude et mise en place d’une plateforme d’adaptation multiservice embarquée pour la gestion de flux multimédia à différents niveaux logiciels et matériels." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14678/document.

Full text
Abstract:
Les avancées technologiques ont permis la commercialisation à grande échelle de terminaux mobiles. De ce fait, l’homme est de plus en plus connecté et partout. Ce nombre grandissant d’usagers du réseau ainsi que la forte croissance du contenu disponible, aussi bien d’un point de vue quantitatif que qualitatif saturent les réseaux et l’augmentation des moyens matériels (passage à la fibre optique) ne suffisent pas. Pour surmonter cela, les réseaux doivent prendre en compte le type de contenu (texte, vidéo, ...) ainsi que le contexte d’utilisation (état du réseau, capacité du terminal, ...) pour assurer une qualité d’expérience optimum. A ce sujet, la vidéo fait partie des contenus les plus critiques. Ce type de contenu est non seulement de plus en plus consommé par les utilisateurs mais est aussi l’un des plus contraignant en terme de ressources nécéssaires à sa distribution (taille serveur, bande passante, …). Adapter un contenu vidéo en fonction de l’état du réseau (ajuster son débit binaire à la bande passante) ou des capacités du terminal (s’assurer que le codec soit nativement supporté) est indispensable. Néanmoins, l’adaptation vidéo est un processus qui nécéssite beaucoup de ressources. Cela est antinomique à son utilisation à grande echelle dans les appareils à bas coûts qui constituent aujourd’hui une grande part dans l’ossature du réseau Internet. Cette thèse se concentre sur la conception d’un système d’adaptation vidéo à bas coût et temps réel qui prendrait place dans ces réseaux du futur. Après une analyse du contexte, un système d’adaptation générique est proposé et évalué en comparaison de l’état de l’art. Ce système est implémenté sur un FPGA afin d’assurer les performances (temps-réels) et la nécessité d’une solution à bas coût. Enfin, une étude sur les effets indirects de l’adaptation vidéo est menée
On the one hand, technology advances have led to the expansion of the handheld devices market. Thanks to this expansion, people are more and more connected and more and more data are exchanged over the Internet. On the other hand, this huge amound of data imposes drastic constrains in order to achieve sufficient quality. The Internet is now showing its limits to assure such quality. To answer nowadays limitations, a next generation Internet is envisioned. This new network takes into account the content nature (video, audio, ...) and the context (network state, terminal capabilities ...) to better manage its own resources. To this extend, video manipulation is one of the key concept that is highlighted in this arising context. Video content is more and more consumed and at the same time requires more and more resources. Adapting videos to the network state (reducing its bitrate to match available bandwidth) or to the terminal capabilities (screen size, supported codecs, …) appears mandatory and is foreseen to take place in real time in networking devices such as home gateways. However, video adaptation is a resource intensive task and must be implemented using hardware accelerators to meet the desired low cost and real time constraints.In this thesis, content- and context-awareness is first analyzed to be considered at the network side. Secondly, a generic low cost video adaptation system is proposed and compared to existing solutions as a trade-off between system complexity and quality. Then, hardware conception is tackled as this system is implemented in an FPGA based architecture. Finally, this system is used to evaluate the indirect effects of video adaptation; energy consumption reduction is achieved at the terminal side by reducing video characteristics thus permitting an increased user experience for End-Users
APA, Harvard, Vancouver, ISO, and other styles
15

Heil, Mikael. "Conception architecturale pour la tolérance aux fautes d'un système auto-organisé multi-noeuds en réseau à base de NoC reconfigurables." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0351.

Full text
Abstract:
Afin de répondre à des besoins croissants de performance et de fiabilité des systèmes sur puce embarqués pour satisfaire aux applications de plus en plus complexes, de nouveaux paradigmes architecturaux et structures de communication auto-adaptatives et auto-organisées sont à élaborer. Ces nouveaux systèmes de calcul intègrent au sein d'une même puce électronique plusieurs centaines d'éléments de calcul (systèmes sur puce multiprocesseur - MPSoC) et doivent permettre la mise à disposition d'une puissance de calcul parallèle suffisante tout en bénéficiant d'une grande flexibilité et d'une grande adaptabilité. Le but est de répondre aux évolutions des traitements distribués caractérisant le contexte évolutif du fonctionnement des systèmes. Actuellement, les performances de tels systèmes reposent sur une autonomie et une intelligence permettant de déployer et de redéployer les modules de calcul en temps réel en fonction de la demande de traitement et de la puissance de calcul. Elle dépend également des supports de communication entre les blocs de calcul afin de fournir une bande passante et une adaptabilité élevée pour une efficacité du parallélisme potentiel de la puissance de calcul disponible des MPSoC. De plus, l'apparition de la technologie FPGA reconfigurable dynamiquement a ouvert de nouvelles approches permettant aux MPSoC d'adapter leurs constituants en cours de fonctionnement, et de répondre aux besoins croissants d'adaptabilité et de flexibilité. C'est dans ce contexte du besoin primordial de flexibilité, de puissance de calcul et de bande passante qu'est apparue une nouvelle approche de conception des systèmes communicants, auto-organisés et auto-adaptatifs basés sur des nœuds de calcul reconfigurables. Ces derniers sont constitués de réseaux embarqués sur puce (NoC) permettant l'interconnexion optimisée d'un grand nombre d'éléments de calcul au sein d'une même puce, tout en assurant l'exigence d'une tolérance aux fautes et d'un compromis entre les performances de communication et les ressources d'interconnexion. Ces travaux de thèse ont pour objectif d'apporter des solutions architecturales innovantes pour la SdF des systèmes MPSoC en réseau basés sur la technologie FPGA, et configurés selon une structure distribuée et auto-organisée. L'objectif est d'obtenir des systèmes sur puce performants et fiables intégrant des techniques de détection, de localisation et de correction d'erreurs au sein de leurs structures NoC reconfigurables ou adaptatifs. La principale difficulté réside dans l'identification et la distinction entre des erreurs réelles et des fonctionnements variables ou adaptatifs des éléments constituants ces nœuds en réseau. Ces travaux ont permis de réaliser un réseau de nœuds reconfigurables à base de FPGA intégrant des structures NoC dynamiques, capables de s'auto-organiser et de s'auto-tester dans le but d'obtenir une maintenabilité maximale du fonctionnement du système dans un contexte en réseau. Dans ces travaux, un système communicant multi-nœuds MPSoC reconfigurable capable d'échanger et d'interagir a été développé, permettant ainsi une gestion avancée de tâches, la création et l'auto-gestion de mécanismes de tolérance aux fautes. Différentes techniques sont combinées et permettent d'identifier et localiser avec précision les éléments défaillants d'une telle structure dans le but de les corriger ou de les isoler pour prévenir toutes défaillances du système. Elles ont été validées au travers de nombreuses simulations matérielles afin d'estimer leur capacité de détection et de localisation des sources d'erreurs au sein d'un réseau. De même, des synthèses logiques du système intégrant les différentes solutions proposées sont analysées en termes de performances et de ressources logiques consommées dans le cas de la technologie FPGA
The need of growing performance and reliability of embedded System-on-Chips SoCs are increasing constantly to meet the requirements of applications becoming more and more complexes, new architectural processing paradigms and communication structures based in particular on self-adaptive and self-organizing structures have emerged. These new computing systems integrate within a single chip of hundreds of computing or processing elements (Multiprocessor Systems on Chip - MPSoC) allowing to feature a high level of parallel processing while providing high flexibility or adaptability. The goal is to change possible configurations of the distributed processing characterizing the evolving context of the networked systems. Nowadays, the performance of these systems relies on autonomous and intelligence allowing to deploy and redeploy the compute modules in real time to the request processing and computing power, the communication medium and data exchange between interconnected processing elements to provide bandwidth scalability and high efficiency for the potential parallelism of the available computing power of MPSoC. Moreover, the emergence of the partial reconfigurable FPGA technology allows to the MPSoC to adapt their elements during its operation in order to meet the system requirements. In this context, flexibility, computing power and high bandwidth requirements lead new approach to the design of self-organized and self-adaptive communication systems based Network-on-Chips (NoC). The aim is to allow the interconnection of a large number of elements in the same device while maintaining fault tolerance requirement and a compromise between parallel processing capacity of the MPSoC, communication performance, interconnection resources and tradeoff between performance and logical resources. This thesis work aims to provide innovative architectural solutions for networked fault tolerant MPSoC based on FPGA technology and configured as a distributed and self-organized structure. The objective is to obtain performance and reliable systems on chips incorporating detection, localization and correction of errors in their reconfigurable or adaptive NoC structures where the main difficulty lies in the identification and distinction between real errors and adaptive properties in these network nodes. More precisely, this work consists to perform a networked node based on reconfigurable FPGA which integrates dynamic or adaptive NoC capable of self-organized and self-test in order to achieve maximum maintainability of system operation in a networked environment (WSN). In this work, we developed a reconfigurable multi-node system based on MPSoC which can exchange and interact, allowing an efficient task management and self-management of fault tolerance mechanisms. Different techniques are combined and used to identify and precisely locate faulty elements of such a structure in order to correct or isolate them in order to prevent failures of the system. Validations through the many hardware simulations to estimate their capacity of detecting and locating sources of error within a network have been presented. Likewise, synthesized logic systems incorporating the various proposed solutions are analyzed in terms of performance and logic resources in the case of FPGA technology
APA, Harvard, Vancouver, ISO, and other styles
16

Ranwez, Sylvie. "Composition Automatique de Documents Hypermédia Adaptatifs à partir d'Ontologies et de Requêtes Intentionnelles de l'Utilisateur." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2000. http://tel.archives-ouvertes.fr/tel-00142722.

Full text
Abstract:
L'utilisation des nouveaux modes de communication et le développement de l'Internet suscitent un vif intérêt dans le milieu pédagogique. Dans ce milieu particulièrement, la structure narrative des documents revêt une importance capitale dans l'optimisation du transfert d'information. Les techniques hypermédias et hypertextes traditionnelles apportent une nouvelle dimension à la lecture mais elles ne permettent pas de respecter une stratégie didactique précise lors de l'élaboration de documents. L'approche proposée introduit des modes de composition de documents structurés basés sur des ontologies. Après avoir présenté l'état des recherches concernant les systèmes d'enseignements interactifs (SEI), la structure documentaire et les ontologies, les notions de Documents Virtuels Personnalisables (DVP), de Brique d'Information (BI) et de composition documentaire sont définies. La composition comporte quatre étapes : recherche d'information, filtrage, organisation et assemblage. L'automatisation de la composition impose que le SEI soit doté d'une connaissance du domaine et d'une connaissance didactique. Une Ontologie du Domaine et une Ontologie Pédagogique en fournissent les modèles. Les BI qui constituent un document font l'objet d'une qualification précise basée sur ces ontologies. Une méthode de composition de documents pédagogiques adaptatifs est proposée et implémentée dans un prototype nommé Sibyl. Cette méthode est basée sur l'association des ontologies. La prédétermination des rôles pédagogiques lors de la qualification des documents affecte néanmoins la pertinence de cette approche : les rôles peuvent être fonction de l'application et du contexte dans lequel les documents sont composés. Une méthodologie est alors introduite pour attribuer automatiquement des rôles à des BI en fonction des intentions d'un utilisateur et de son contexte d'apprentissage.
APA, Harvard, Vancouver, ISO, and other styles
17

Chabert-Ranwez, Sylvie. "Composition Automatique de Documents Hypermédia Adaptatifs à partir d'Ontologies et de Requêtes Intentionnelles de l'Utilisateur." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2000. http://tel.archives-ouvertes.fr/edutice-00000381.

Full text
Abstract:
La thèse qui s'offre à votre lecture est le résultat de recherches menées en parallèle sur plusieurs domaines. Un des aspects originaux de ces travaux est de considérer les ontologies, au-delà de la modélisation de connaissance, comme support du raisonnement. Les principes de composition basés sur l'association d'ontologies et la répartition de poids en fonction d'une intention sur une instance d'ontologie ouvrent de nouvelles perspectives de recherche tant pour le traitement de l'information que pour la composition documentaire. Cette thèse propose certains formalismes concernant ces deux aspects. Nous espérons qu'ils serviront de base à des applications futures dans différents domaines comme par exemple la télévision interactive. Le choix d'application de ces travaux concernent les documents pédagogiques.
APA, Harvard, Vancouver, ISO, and other styles
18

Fontaine, Emeric. "Programmation d'espace intelligent par l'utilisateur final." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00744415.

Full text
Abstract:
Cette thèse traite du problème du développement d'espaces intelligents par l'utilisateur final sous l'angle de l'Interaction Homme-Machine et de l'Intelligence Ambiante. Dans les processus actuels de développement, l'utilisateur est un consommateur contraint par un système pensé et réalisé par d'autres. L'objectif de cette thèse est de redonner le pouvoir à l'utilisateur final par le biais d'outils adaptés au développement d'espaces intelligents. Cette thèse retient l'habitat intelligent comme lieu de vie privilégié. Ses contributions incluent : (1) DisQo (Dispositifs du QuOtidien), une nouvelle méthode d'investigation des besoins, réalisable au domicile de familles, qui sollicite l'imagination et assure un juste équilibre entre contrôle expérimental, respect de la sphère privée et validité écologique des résultats ; (2) Un espace de classification pour une lecture comparative systématique et synthétique des outils portant sur le développement et la programmation d'habitats intelligents. Cette taxonomie met en évidence le peu d'avancées en édition multisyntaxe de même pour l'aide à la mise au point de programmes ; (3) KISS (Knit Your Ideas into Smart Spaces), un outil de programmation et de mise au point dont le langage de programmation est de type déclaratif orienté règles, avec potentiel d'égale opportunité syntaxique entre langue française pseudonaturelle (LPN) et langage visuel iconique. La technique d'interaction de construction des programmes LPN s'appuie sur l'utilisation de menus dont les options sont calculées dynamiquement assurant ainsi la découverte progressive du langage ainsi que l'extensibilité et la correction syntaxique et sémantique des programmes. La mise au point peut se pratiquer, au choix, dans le monde physique ou dans un monde dual numérique. L'évaluation de KISS dans DOMUS, un habitat intelligent d'expérimentation, montre que les utilisateurs parviennent à programmer un scénario réaliste de la vie réelle.
APA, Harvard, Vancouver, ISO, and other styles
19

Guffroy, Marine. "Adaptation de méthodes d’évaluation dans le cadre de la conception d’une application numérique pour un jeune public avec troubles du spectre autistique : étude au cours de la conception et de l'évaluation de l’application çATED au sein d'une ULIS TED." Thesis, Le Mans, 2017. http://www.theses.fr/2017LEMA3001/document.

Full text
Abstract:
La prise en considération des spécificités du public cible et des contextes d’usage d’une application interactive peut interroger les principes méthodologiques généralement recommandés pour la conception et l’évaluation d’application informatique. Dans le cas de la création d’un outil dédié à un jeune public avec TSA (Troubles du Spectre Autistique), les difficultés de communication et les altérations des interactions sociales de ces derniers empêchent la mise en œuvre d’une méthodologie « ordinaire » de conception centrée utilisateur. Au-delà de la prise en considération du potentiel, établi, qu’offre le numérique pour le jeune public avec TSA, il s’agit d’identifier et de mettre en œuvre les méthodes et techniques utiles à l’évaluation des prototypes proposés, en tenant compte des caractéristiques du public et de son contexte quotidien en structure scolaire.Les travaux de recherche présentés dans cette thèse se situent dans le domaine des interactions hommes-machines (IHM). Ils questionnent les principes méthodologiques de conception centrée utilisateur : Comment répondre aux objectifs d’évaluation quand la communication verbale n’est pas garantie ? Quel rôle pour l’utilisateur cible dans le cycle de conception-évaluation ? Quels rôles pour l’entourage humain et spécialisé ? Comment observer et analyser l’usage d’un logiciel sur tablette dans le contexte quotidien du public cible ?Plus précisément, la problématique porte sur l’adaptation des méthodes d’évaluation ordinaires aux caractéristiques et comportements spécifiques d’un public extraordinaire
Taking into account the specificities of the target audience and the contexts of use of an interactive application imply to question the generally recommended methodological principles for computer application design and evaluation. In the case of the creation of a tool dedicated to a young audience with Autistic Spectrum Disorders (ASD), communication difficulties and alterations in their social interactions prevent the implementation of an "ordinary", user-centered design methodology. Beyond the consideration of the established potential offered by digital technology for young people with ASD, it is a question of identifying and implementing the methods and techniques useful in order to evaluate the proposed prototypes, taking into account the characteristics of the public and its everyday context in school structure.The research presented in this thesis belong to the field of human-machine interactions (HMI). It questions the methodological principles of user-centered design: How to meet evaluation objectives when verbal communication is not guaranteed? What role for the target user in the design-evaluation cycle? What are the roles for the human and specialized relatives? How to observe and analyze the use of tablet software in the daily context of the target audience?More specifically, the research concerns the adaptation of ordinary methods of evaluation to the specific characteristics and behaviors of an extraordinary audience
APA, Harvard, Vancouver, ISO, and other styles
20

Zhang, Xun. "Contribution aux architectures adaptatives : etude de l'efficacité énergétique dans le cas des applications à parallélisme de données." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10106/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la conception d'architectures reconfigurables. Plus précisément, il concerne les architectures matérielles adaptatives, ces dernières pouvant être modifiées du point de vue de leurs caractéristiques matérielles au cours de l'exécution d'une application. Nous présentons une méthodologie d'auto-configuration d'une architecture reconfigurable dynamiquement ainsi qu'une architecture permettant d'illustrer l'utilisation de la méthode. L'objectif de la méthode est de réduire la consommation d'énergie en garantissant le respect des contraintes à tout instant. La méthodologie proposée s'adresse aux architectures reconfigurables à grain épais, puisque l'unité fonctionnelle matérielle correspond à une fonction de haut niveau d'abstraction (IDWT, etc.), même si la réalisation de l'architecture est basée sur l'utilisation d'une structure reconfigurable à grain fin (FPGA). Le besoin d'adaptation choisi concerne principalement deux cas de figures. Premièrement, répondre aux variations dynamiques de la charge de calcul en cours de traitement : un accroissement ou une réduction du débit de données conduit à une inadéquation entre l'architecture et son environnement. Deuxièmement, s'adapter aux variations dynamiques de la structure de l'algorithme : dans certaines applications les traitements à effectuer changent en fonction des données qui arrivent
My PhD project focuses on Dynamic Adaptive Runtime parallelism and frequency scaling techniques in coarse grain reconfigurable hardware architectures. This new architectural approach offers a set of new features to increase the flexibility and scalability for applications in an evolving environment with reasonable energy cost. In this architecture, the parallelism granularity and running frequency can be reconfigured by using partial and dynamic reconfiguration. The adaptive method and architecture have been already developed and tested on FPGA platforms. The measurements and results analysis based on DWT show that the energy efficiency is adjustable dynamically by using our approach. The main contribution to the research project involves an auto-adaptive method development; this means using partial and dynamic reconfiguration can reconfigure the parallelism granularity and running frequency of application. The adaptive method by adjusting the parallelism granularity and running frequency is tested with the same application. We are presenting results coming from implementations of Image processing key application and analyses the behavior of this architecture on these applications
APA, Harvard, Vancouver, ISO, and other styles
21

Perez, Castañeda Oscar Leopoldo. "Modélisation des effets de la reconfiguration dynamique sur la flexibilité d'une architecture de traitement temps réel." Nancy 1, 2007. http://www.theses.fr/2007NAN10139.

Full text
Abstract:
L'apport principal de la logique câblée par rapport au microprocesseur est le degré de parallélisme qui est supérieur de plusieurs ordres de grandeurs. Cependant la propriété de configurabilité de ces circuits entraîne un surcoût considérable en terme de surface de silicium, de temps de propagation et de consommation énergétique par rapport à des circuits figés tels que les ASIC. La reconfiguration dynamique des FPGA est alors souvent présentée dans la littérature comme un moyen d'augmenter leur flexibilité, pour approcher celle des microprocesseurs, tout en conservant un niveau de performance sinon proche des ASIC du moins nettement supérieur à celui des microprocesseurs. Si la performance est en général, au moins pour un domaine applicatif donnée, assez facile à quantifier, il en va tout autrement pour la flexibilité. Non seulement cette dimension n'est jamais quantifiée dans la littérature, mais nous n'avons trouvé aucune définition de la flexibilité d'une architecture de traitement de données. L'objectif principal de ce travail de thèse est donc d'une part de définir et quantifier la flexibilité et d'autre part de modéliser l'influence de la reconfiguration dynamique sur la flexibilité. Nous mettons à disposition une métrique ainsi qu'un embryon de méthodologie permettant au concepteur d'opter ou non pour cette solution en fonction de ses contraintes et objectifs
The principal contribution of the wired logic compared to the microprocessor is the degree of parallelism which is in higher several orders of magnitude. However, the property of configurability of these circuits involves an additionnal cost in term of silicon surface, delay and power consumption compared to circuits ASICs. The dynamic reconfiguration of the FPGA is often presented in the literature like a means of increasing their flexibility, to approach that of the microprocessors, while preserving a level of performance that if not is close to the ASIC is higher than of the microprocessors. If the performance is in general, for a given application, more easy to quantify, the situation is quite different for flexibility. In the litterature this metric has never been defined and quantified. Moreover we did not find any definition of the flexibility of an architecture for processing of data. The principal objective of this work is by one hand, to define and quantify the flexibility and by the other hand, to model the influence of the dynamic reconfiguration on flexibility. We put at the disposition the designer a metric as well as the bases of methodology allowing it to choose or not this solution according to its constraints and objectives
APA, Harvard, Vancouver, ISO, and other styles
22

Liu, Ting Weber Serge. "Optimisation par synthèse architecturale des méthodes de partitionnement temporel pour les circuits reconfigurables." S. l. : Nancy 1, 2008. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2008_0013_LIU.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Garcia, Samuel. "Architecture reconfigurable dynamiquement a grain fin pour le support d'un système d'exploitation temps réel." Paris 6, 2012. http://www.theses.fr/2012PA066495.

Full text
Abstract:
Les applications pressenties dans le futur partagent quatre caractéristiques majeures. Elles nécessitent une capacité de calcul accrue, nécessitent la prise en compte du temps réel, représentent un pas important en terme de complexité en comparaison avec les applications d'aujourd'hui, et devront être capables de supporter la nature dynamique du monde réel. Une architecture reconfigurable dynamiquement à grain fin (FGDRA) peut être vue comme une nouvelle évolution des FPGA d'aujourd'hui, visant à supporter des applications temps réel à la fois complexes et fortement dynamiques, tout en fournissant une puissance de calcul potentielle comparable due à la possibilité d'optimiser l'architecture applicative à un niveau de granularité très fin. Pour rendre ce type d'architecture utilisable pour les développeurs applicatifs, la complexité doit être abstraite par le biais d'un système d'exploitation et d'une suite d'outils adéquats. Cette combinaison formera une bonne solution pour supporter les applications du futur. Cette thèse présente une architecture de FGDRA innovante appelée OLLAF. Cette architecture répond à la fois aux aspect techniques liés à la reconfiguration dynamique, et aux problèmes pratiques des développeurs applicatifs. L'ensemble de l'architecture est conçue pour fonctionner en symbiose avec un système d'exploitation. Les études présentées sont plus particulièrement axées sur les mécanismes de gestion des tâches matérielles dans un système préemptif. Nous présentons d'abord nos travaux essayant d'implémenter de tels mécanismes en utilisant des FPGA existant et montrons que ces architectures existantes doivent évoluer pour pouvoir supporter efficacement un système d'exploitation dans un contexte temps réel hautement dynamique. L'architecture OLLAF est expliquée en mettant l'accent sur les mécanismes de gestion des tâches matérielles. Nous présentons ensuite deux études qui prouvent que cette approche constitue un gain important en comparaison avec les plates-formes existantes en terme d'overhead du au système d'exploitation et ce même dans des cas où la reconfiguration dynamique n'est utilisée que pour le partage de la ressource de calcul. Pour les cas temps réel fortement dynamiques, nous avons montré que non seulement cela permet de diminuer l'overhead, mais l'architecture OLLAF permet également de supporter des cas qui ne peuvent pas être envisagés avec les composants actuels
Most of anticipated future applications share four major characteristics. They might all require an increased computing capacity, they will implies to take real time into account, they represent a big step in terms of complexity compared with todays typical applications, and will have to deal with the dynamic nature of the real physical world. Fine grained dynamically reconfigurable architecture (FGDRA) can be seen as next evolution of today's FPGA, aiming at dealing with very dynamic and complex real time applications while providing comparable potential computing power due to the possibility to fine tune execution architecture at a fine grain level. To make this kind of devices usable for real application designer complexity has to be abstracted by an operating system layer and adequate tool set. This combination would form an adequate solution to support future applications. This thesis exposes an innovative FGDRA architecture called OLLAF. This architecture answer both technical issues on reconfigurable computing and practical problematics of application designers. The whole architecture is designed to work in symbiosis with an operating system. Studies presented here will more particularly focus on hardware task management mechanisms in a preemptive system. We will first present our work toward trying to implement such mechanisms using existing FPGA and show that those existing architectures have to evolve to efficiently support an operating system in a highly dynamic real time situation. The OLLAF architecture will then be explained and the hardware task management mechanism will be highlighted. We then present two studies that prove this approach to constitute a huge gain compared with existing platforms in terms of resulting operating system overhead even for static application cases where dynamical reconfiguration is used only for computing resource sharing. For highly dynamical real time cases we show that not only it could lower the overhead, but it will also support cases that existing devices just cannot support
APA, Harvard, Vancouver, ISO, and other styles
24

Cheng, Kevin. "Reconfigurable self-organised systems : architecture and implementation." Thesis, Metz, 2011. http://www.theses.fr/2011METZ039S/document.

Full text
Abstract:
Afin de répondre à une complexité croissante des systèmes de calcul, de nouveaux paradigmes architecturaux basés sur des structures auto-adaptatives et auto-organisées sont à élaborer. Ces derniers doivent permettre la mise à disposition d’une puissance de calcul suffisante tout en bénéficiant d’une grande flexibilité et d’une grande adaptabilité, cela dans le but de répondre aux évolutions des traitements distribués caractérisant le contexte évolutif du fonctionnement des systèmes. Ces travaux de thèse proposent une nouvelle approche de conception des systèmes communicants, auto-organisés et auto-adaptatifs basés sur des noeuds de calcul reconfigurable. Autrement dit, ces travaux proposent un système matériel autonome et intelligent, capable de déployer et de redéployer ses modules de calcul, en temps réel et en fonction de la demande de traitement et de la puissance de calcul. L’aboutissement de ces travaux se traduit par la réalisation d’un Système Auto-organisé Reconfigurable (SAR) basé sur la technologie FPGA. L’architecture auto-adaptative proposée permet d’étudier l’impact des systèmes reconfigurables dans une structure distribuée et auto-organisée. Le système est réalisé pour étudier, à chaque niveau, les paramètres qui influencent les performances globales d’un réseau de calcul évolutif. L’étude de l’état de l’art a permis la mise en perspective et la formalisation des caractéristiques du concept d’auto-organisation matérielle proposé ainsi qu’une évaluation et une analyse de ces performances. Les résultats de ces travaux montrent la faisabilité d’un système complexe de calcul distribué dont l’intelligence repose sur les interactions des éléments reconfigurables le constituant
Increasing needs of computation power, flexibility and interoperability are making systems more and more difficult to integrate and to control. The high number of possible configurations, alternative design decisions or the integration of additional functionalities in a working system cannot be done only at the design stage any more. In this context, where the evolution of networked systems is extremely fast, different concepts are studied with the objective to provide more autonomy and more computing power. This work proposes a new approach for the utilization of reconfigurable hardware in a self-organised context. A concept and a working system are presented as Reconfigurable Self-Organised Systems (RSS). The proposed hardware architecture aims to study the impact of reconfigurable FPGA based systems in a self-organised networked environment and partial reconfiguration is used to implement hardware accelerators at runtime. The proposed system is designed to observe, at each level, the parameters that impact on the performances of the networked self-adaptive nodes. The results presented here aim to assess how reconfigurable computing can be efficiently used to design a complex networked computing system and the state of the art allowed to enlighten and formalise characteristics of the proposed self-organised hardware concept. Its evaluation and the analysis of its performances were possible using a custom board: the Potsdam Intelligent Camera System (PICSy). It is a complete implementation from the electronic board to the control application. To complete the work, measurements and observations allow analysis of this realisation and contribute to the common knowledge
APA, Harvard, Vancouver, ISO, and other styles
25

Pérez, Patricio Madain. "Stéréovision dense par traitement adaptatif temps réel : algorithmes et implantation." Lille 1, 2005. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/0c4f5769-6f43-455c-849d-c34cc32f7181.

Full text
Abstract:
Les méthodes de stéréovision sont utilisées pour la reconstruction tridimensionnelle d'une scène. Le travail présenté dans ce mémoire concerne l'étude et le développement de méthodes de stéréovision pouvant être implantées sur des architectures spécialisées de calcul afin de traiter les images en temps-réel. Nous avons étudié plus spécifiquement les méthodes basées sur la corrélation entre des fenêtres extraites des deux images. Le principal problème posé par ces méthodes réside dans le choix de la taille et de la forme de la fenêtre de corrélation. Une petite fenêtre est nécessaire afin de traiter correctement les petits objets, mais elle ne fournit pas de résultats exploitables dans les zones homogènes des images. A l'inverse, une grande fenêtre permet de traiter les zones homogènes, mais les petits objets sont supprimés des images résultat. Pour pallier ce problème, nous proposons une nouvelle méthode adaptative qui peut être implantée sur une architecture dédiée de calcul. La corrélation est calculée sur une grande fenêtre, mais certains pixels sont exclus lors du traitement. Seuls les pixels "semblables" au pixel à apparier sont conservés dans l'expression de la corrélation, ce qui équivaut à changer la taille et la forme de la fenêtre. Plusieurs critères de similarité sont proposés et comparés. Nous avons montré que, même en utilisant de critères de similarité extrèmement simples, les résultats obtenus avec notre algorithme sont de meilleure qualité que ceux obtenus par les algorithmes similaires décrits dans la littérature. L'algorithme a été implanté dans une architecture intégrant un FPGA, le processeur STREAM. Nous présentons également une utilisation de notre algorithme dans le cadre de la détection d'obstacles en temps-réel à l'avant d'un véhicule.
APA, Harvard, Vancouver, ISO, and other styles
26

Sbai, Hugo. "Système de vidéosurveillance intelligent et adaptatif, dans un environnement de type Fog/Cloud." Thesis, Lille, 2018. http://www.theses.fr/2018LIL1I018.

Full text
Abstract:
Les systèmes de vidéosurveillance utilisent des caméras sophistiquées (caméras réseau, smart caméras) et des serveurs informatiques pour l’enregistrement vidéo dans un système entièrement numérique. Ces systèmes intègrent parfois des centaines de caméras et génèrent une quantité colossale de données, dépassant largement les capacités des agents humains. Ainsi, l'un des défis modernes les plus importants est de faire évoluer un système basé sur le Cloud intégrant plusieurs caméras intelligentes hétérogènes et l'adapter à une architecture Fog/Cloud pour en améliorer les performances. Les FPGA sont de plus en plus présents dans les architectures FCIoT (FoG-Cloud-IoT). Ils sont caractérisés par des modes de configuration dynamiques et partiels, permettant de s'adapter rapidement aux changements survenus tout en augmentant la puissance de calcul disponible. De telles plateformes présentent de sérieux défis scientifiques, notamment en termes de déploiement et de positionnement des FoGs.Cette thèse propose un modèle de vidéosurveillance composé de caméras intelligentes plug & play, dotées de FPGAs dynamiquement reconfigurables sur une base hiérarchique FOG/ CLOUD. Dans ce système fortement évolutif, à la fois en nombre de caméras et de cibles trackées, nous proposons une approche automatique et optimisée d’authentification des caméras et de leur association dynamique avec les FoGs. L’approche proposée comporte également une méthodologie pour l’affectation optimale des trackers matériels aux ressources électroniques disponibles pour maximiser les performances et minimiser la consommation d’énergie. Toutes les contributions ont été validées avec un prototype de taille réelle
CCTV systems use sophisticated cameras (network cameras, smart cameras) and computer servers for video recording in a fully digital system. They often integrate hundreds of cameras generating a huge amount of data, far beyond human agent monitoring capabilities. One of the most important and modern challenges, in this field, is to scale an existing cloud-based video surveillance system with multiple heterogeneous smart cameras and adapt it to a Fog / Cloud architecture to improve performance without a significant cost overhead. Recently, FPGAs are becoming more and more present in FCIoT (FoG-Cloud-IoT) platform architectures. These components are characterized by dynamic and partial configuration modes, allowing platforms to quickly adapt themselves to changes resulting from an event, while increasing the available computing power. Today, such platforms present a certain number of serious scientific challenges, particularly in terms of deployment and positioning of FoGs. This thesis proposes a video surveillance model composed of plug & play smart cameras, equipped with dynamically reconfigurable FPGAs on a hierarchical FOG / CLOUD basis. In this highly dynamic and scalable system, both in terms of intelligent cameras (resources) and in terms of targets to track, we propose an automatic and optimized approach for camera authentication and their dynamic association with the FOG components of the system. The proposed approach also includes a methodology for an optimal allocation of hardware trackers to the electronic resources available in the system to maximize performance and minimize power consumption. All contributions have been validated with a real size prototype
APA, Harvard, Vancouver, ISO, and other styles
27

Vidal, Jorgiano. "Dynamic and partial reconfigurable embedded systems design with UML." Lorient, 2010. http://www.theses.fr/2010LORIS203.

Full text
Abstract:
Les avancées récentes au niveau des technologies reconfigurables permettent d'implanter des système multiprocesseurs dans un seul FPGA. (Multiprocessor System on Programmable Chip, MPSoPC). Pour pouvoir accélérer le temps de développement de tels systèmes hétérogènes, des nouvelle techniques de projet doivent être développées. De plus, l'exécution dynamique de tâches est un point clef concernant les systèmes modernes, i. E. Systèmes qui ont la capacité de changer leur comportement au cours de l'exécution pour s'adapter à leur environnent. L'UML (Unified Modeling Language) est utilisé pour la modélisation de logiciels depuis sa première version. Récemment, avec les nouveaux concepts rajoutés aux dernières versions (UML2), il est aussi adapté à la modélisation du matériel. Cette thèse est une contribution dans le cadre du projet MOPCOM, qui propose un ensemble des techniques de modélisation avec UML pour construire des systèmes embarqués complexes. Les techniques proposées dans cette thèse considèrent le système à construire comme un modèle unique complet. Nous proposons ensuite un ensemble de transformations qui permettent de générer automatiquement le système. Notre approche permet de modéliser des applications dynamiques sur des plateformes reconfigurables. Nous avons obtenu une réduction de temps de conception de 30% à travers l'utilisation de notre méthodologie
Advances in reconfigurable technologies allow entire multiprocessor systems to be implemented in a single FPGA (Multiprocessor System on Programmable Chip, MP- SoPC). In order to speed up the design time of such heterogeneous systems, new modelling techniques must be developed. Furthermore, dynamic execution is a key point for modern systems, i. E. Systems that can partially change their behavior at run time in order to adjust their execution to the environment. UML (Unified Modeling Language) has been used for software modeling since its first version. Recently, with new modeling concepts added to later versions (UML 2), it has become more and more suitable for hardware modeling. This thesis is a contribution to the MOPCOM project, where we propose a set of modeling techniques in order to build complex embedded systems by using UML. The modeling techniques proposed here consider the system to be built in one complete model. Moreover, we propose a set of transformation that allows the system to be automatically generated. Our approach allows the modelling of dynamic applications onto reconfigurable platforms. Design time reduction up to 30% has been measured while using our methodology
APA, Harvard, Vancouver, ISO, and other styles
28

Liu, Ting. "Optimisation par synthèse architecturale des méthodes de partitionnement temporel pour les circuits reconfigurables." Thesis, Nancy 1, 2008. http://www.theses.fr/2008NAN10013/document.

Full text
Abstract:
Les travaux de recherche présentés se situent dans le contexte des méthodologies d’aide à l’implémentation d’algorithmes graphe flot de données sur architectures reconfigurables dynamiquement de type RSoC (Reconfigurable System on Chip) à base de technologie FPGA. La stratégie visée consiste à mettre en œuvre une approche de conception basée simultanément sur la reconfiguration dynamique (RD) et la synthèse architecturale (SA) en vue d’atteindre la meilleur Adéquation Algorithme Architecture (A3). La méthodologie consiste à identifier et extraire les parties d’une application décrite sous forme d’un GFD afin de les implanter soit par partie successivement reconfigurées (PT), soit par la SA ou bien en combinant les deux méthodes. Pour développer notre solution dans un but d’optimisation et de juste compromis entre les deux approches RD et SA, nous avons défini un paramètre permettant une évaluation du degré inter-partition de mise en œuvre d’unités fonctionnelles partagées. Afin de valider la stratégie méthodologique proposée, nous présentons les résultats de l’application de notre approche sur deux applications temps réel. Une analyse comparative en terme de résultats d’implémentation illustre l’intérêt et la capacité d’optimisation de cette méthode pour l’implémentation en reconfiguration dynamique d’applications complexes sur RSoC
AThe research work presented in the context of methodologies is to assist the implementation of data flow graph algorithms on dynamically reconfigurable RSoC (Reconfigurable System on Chip)-based FPGA architectures.The main strategy consists in implementing a design approach based on simultaneously both the dynamic reconfiguration (DR) and synthesis architecture (SA) in order to achieve a best Adequacy Algorithm Architecture (A3). The methodology consists in identifying and extracting the parts of an application which is described in form of DFG in order to implement either by successively partial reconfiguration (TP), or by the AS or by combining the two approaches.To develop our solution with a view of optimizing and suitable compromise between the two approaches RD and SA, we propose a parameter in order to evaluate the degree of the inter-partition implementation based on functional units shared. In order to validate the proposed methodological strategy, we present the results of the implementation of our approach on two real-time applications. A comparative analysis with the respecting of the implementation results illustrates the interest and the optimisation ability of our method, which is also for dynamic reconfiguration implementation of the complex applications on RSoC
APA, Harvard, Vancouver, ISO, and other styles
29

Lequay, Victor. "Une approche ascendante pour la gestion énergétique d'une Smart-Grid : modèle adaptatif et réactif fondé sur une architecture décentralisée pour un système générique centré sur l'utilisateur permettant un déploiement à grande échelle." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1304.

Full text
Abstract:
Le domaine de la gestion de l'énergie dans les smart grids a été largement exploré ces dernières années, de nombreuses approches différentes étant proposées dans la littérature. En collaboration avec notre partenaire industriel Ubiant, qui déploie des solutions d'optimisation énergétique du bâtiment, nous avons mis en évidence le besoin d'un système vraiment robuste et évolutif exploitant la flexibilité de la consommation résidentielle pour optimiser l'utilisation de l'énergie au sein d'une smart grid. Dans le même temps, nous avons observé que la majorité des travaux existants se concentraient sur la gestion de la production et du stockage et qu'aucune des architectures proposées n'étaient véritablement décentralisées. Notre objectif était alors de concevoir un mécanisme dynamique et adaptatif permettant de tirer parti de toute la flexibilité existante tout en garantissant le confort de l'utilisateur et une répartition équitable des efforts d'équilibrage ; mais aussi de proposer une plate-forme ouverte et modulaire avec laquelle une grande variété d'appareils, de contraintes et même d'algorithmes pourraient être interfacés. Dans cette thèse, nous avons réalisé (1) une évaluation des techniques actuelles de prévision de la consommation individuelle en temps réel, dont les résultats nous ont amenés à suivre (2) une approche ascendante et décentralisée pour l'ajustement diffus résidentiel reposant sur un mécanisme de compensation pour assurer un effacement stable. Sur cette base, nous avons ensuite construit (3) une plate-forme générique centrée sur l'utilisateur pour la gestion de l'énergie dans les réseaux intelligents, permettant une intégration aisée de plusieurs périphériques, une adaptation rapide à l'évolution de l'environnement et des contraintes, ainsi qu'un déploiement efficace
The field of Energy Management Systems for Smart Grids has been extensively explored in recent years, with many different approaches being described in the literature. In collaboration with our industrial partner Ubiant, which deploys smart homes solutions, we identified a need for a highly robust and scalable system that would exploit the flexibility of residential consumption to optimize energy use in the smart grid. At the same time we observed that the majority of existing works focused on the management of production and storage only, and that none of the proposed architectures are fully decentralized. Our objective was then to design a dynamic and adaptive mechanism to leverage every existing flexibility while ensuring the user's comfort and a fair distribution of the load balancing effort ; but also to offer a modular and open platform with which a large variety of devices, constraints and even algorithms could be interfaced. In this thesis we realised (1) an evaluation of state of the art techniques in real-time individual load forecasting, whose results led us to follow (2) a bottom-up and decentralized approach to distributed residential load shedding system relying on a dynamic compensation mechanism to provide a stable curtailment. On this basis, we then built (3) a generic user-centered platform for energy management in smart grids allowing the easy integration of multiple devices, the quick adaptation to changing environment and constraints, and an efficient deployment
APA, Harvard, Vancouver, ISO, and other styles
30

Bruguier, Florent. "Méthodes de caractérisation et de surveillance des variations technologiques et environnementales pour systèmes reconfigurables adaptatifs." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00965377.

Full text
Abstract:
Les circuits modernes sont de plus en plus sensibles aux variations technologiques et environnementales qui n'ont plus seulement un effet global sur les circuits mais aussi un effet local sur ceux-ci. Dans ce contexte, les composants reprogrammables que sont les FPGA représentent un support technologique intéressant. En effet, ces composants permettent d'adapter l'implantation physique du système grâce à une simple reconfiguration du circuit. C'est pourquoi, dans ce manuscrit, nous présentons un flot d'adaptation complet visant à compenser les variations des circuits reconfigurables. Pour cela, une étude de toutes les phases de conception des capteurs numériques est réalisée. Nous proposons ensuite une approche originale et unique de caractérisation basée sur l'analyse électromagnétique. Il est notamment montré que cette approche permet de se défaire des biais de mesure engendrés par les méthodes de mesure directe. L'utilisation conjointe des capteurs et de cette méthode d'analyse permet une caractérisation fine et précise des variations technologiques de n'importe quel type de circuit FPGA. Enfin, la cartographie issue de la phase de caractérisation permet ensuite de calibrer les capteurs pour une utilisation en ligne. Nous utilisons donc ensuite ces capteurs pour le monitoring dynamique d'un système MPSOC.
APA, Harvard, Vancouver, ISO, and other styles
31

Fournier, Émilien. "Accélération matérielle de la vérification de sûreté et vivacité sur des architectures reconfigurables." Electronic Thesis or Diss., Brest, École nationale supérieure de techniques avancées Bretagne, 2022. http://www.theses.fr/2022ENTA0006.

Full text
Abstract:
Le Model-Checking est une technique automatisée, utilisée dans l’industrie pour la vérification, enjeu majeur pour la conception de systèmes fiables, cadre dans lequel performance et scalabilité sont critiques. La vérification swarm améliore la scalabilité par une approche partielle reposant sur l’exécution concurrente d’analyses randomisées. Les architectures reconfigurables promettent des gains de performance significatifs. Cependant, les travaux existant souffrent d’une conception monolithique qui freine l’exploration des opportunités des architectures reconfigurable. De plus, ces travaux sont limités a la verification de sûreté. Pour adapter la stratégie de vérification au problème, cette thèse propose un framework de vérification matérielle, permettant de gagner, au travers d’une architecture modulaire, une généricité sémantique et algorithmique, illustrée par l’intégration de 3 langages de spécification et de 6 algorithmes. Ce cadre architectural permet l’étude de l’efficacité des algorithmes swarm pour obtenir un cœur de vérification de sûreté scalable. Les résultats, sur un FPGA haut de gamme, montrent des gains d’un ordre de grandeur par rapport à l’état de l’art. Enfin, on propose le premier accélérateur matériel permettant la vérification des exigences de sûreté et de vivacité. Les résultats démontrent un facteur d’accélération moyen de 4875x par rapport au logiciel
Model-Checking is an automated technique used in industry for verification, a major issue in the design of reliable systems, where performance and scalability are critical. Swarm verification improves scalability through a partial approach based on concurrent execution of randomized analyses. Reconfigurable architectures promise significant performance gains. However, existing work suffers from a monolithic design that hinders the exploration of reconfigurable architecture opportunities. Moreover, these studies are limited to safety verification. To adapt the verification strategy to the problem, this thesis first proposes a hardware verification framework, allowing to gain, through a modular architecture, a semantic and algorithmic genericity, illustrated by the integration of 3 specification languages and 6 algorithms. This framework allows efficiency studies of swarm algorithms to obtain a scalable safety verification core. The results, on a high-end FPGA, show gains of an order of magnitude compared to the state-of-the-art. Finally, we propose the first hardware accelerator for safety and liveness verification. The results show an average speed-up of 4875x compared to software
APA, Harvard, Vancouver, ISO, and other styles
32

Marques, Nicolas. "Méthodologie et architecture adaptative pour le placement efficace de tâches matérielles de tailles variables sur des partitions reconfigurables." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0139/document.

Full text
Abstract:
Les architectures reconfigurables à base de FPGA sont capables de fournir des solutions adéquates pour plusieurs applications vu qu'elles permettent de modifier le comportement d'une partie du FPGA pendant que le reste du circuit continue de s'exécuter normalement. Ces architectures, malgré leurs progrès, souffrent encore de leur manque d'adaptabilité fasse à des applications constituées de tâches matérielles de taille différente. Cette hétérogénéité peut entraîner de mauvais placements conduisant à une utilisation sous-optimale des ressources et par conséquent une diminution des performances du système. La contribution de cette thèse porte sur la problématique du placement des tâches matérielles de tailles différentes et de la génération efficace des régions reconfigurables. Une méthodologie et une couche intermédiaire entre le FPGA et l'application sont proposées pour permettre le placement efficace des tâches matérielles de tailles différentes sur des partitions reconfigurables de taille prédéfinie. Pour valider la méthode, on propose une architecture basée sur l'utilisation de la reconfiguration partielle afin d'adapter le transcodage d'un format de compression vidéo à un autre de manière souple et efficace. Une étude sur le partitionnement de la région reconfigurable pour les tâches matérielles de l'encodeur entropique (CAVLC / VLC) est proposée afin de montrer l'apport du partitionnement. Puis une évaluation du gain obtenu et du surcoût de la méthode est présentée
FPGA-based reconfigurable architectures can deliver appropriate solutions for several applications as they allow for changing the performance of a part of the FPGA while the rest of the circuit continues to run normally. These architectures, despite their improvements, still suffer from their lack of adaptability when confronted with applications consisting of variable size material tasks. This heterogeneity may cause wrong placements leading to a sub-optimal use of resources and therefore a decrease in the system performances. The contribution of this thesis focuses on the problematic of variable size material task placement and reconfigurable region effective generation. A methodology and an intermediate layer between the FPGA and the application are proposed to allow for the effective placement of variable size material tasks on reconfigurable partitions of a predefined size. To approve the method, we suggest an architecture based on the use of partial reconfiguration in order to adapt the transcoding of one video compression format to another in a flexible and effective way. A study on the reconfigurable region partitioning for the entropy encoder material tasks (CAVLC / VLC) is proposed in order to show the contribution of partitioning. Then an assessment of the gain obtained and of the method additional costs is submitted
APA, Harvard, Vancouver, ISO, and other styles
33

Feki, Oussama. "Contribution à l'implantation optimisée de l'estimateur de mouvement de la norme H.264 sur plates-formes multi composants par extension de la méthode AAA." Thesis, Paris Est, 2015. http://www.theses.fr/2015PEST1009/document.

Full text
Abstract:
Les architectures mixtes contenant des composants programmables et d'autres reconfigurables peuvent fournir les performances de calcul nécessaires pour satisfaire les contraintes imposées aux applications temps réel. Mais l'implantation et d'optimisation de ces applications temps réel sur ce type d'architectures est une tâche complexe qui prend un temps énorme. Dans ce contexte, nous proposons un outil de prototypage rapide visant ce type d'architectures. Cet outil se base sur une extension que nous proposons de la méthodologie Adéquation Algorithme Architecture (AAA). Il permet d'effectuer automatiquement le partitionnement et l'ordonnancement optimisés des opérations de l'application sur les composants de l'architecture cible et la génération automatique des codes correspondants. Nous avons utilisé cet outil pour l'implantation de l'estimateur de mouvement de la norme H.264/AVC sur une architecture composée d'un processeur NIOS II d'Altera et d'un FPGA Stratix III. Ainsi nous avons pu vérifier le bon fonctionnement de notre outil et validé notre générateur automatique de code mixte
Mixed architectures containing programmable devices and reconfigurable ones can provide calculation performance necessary to meet constraints of real-time applications. But the implementation and optimization of these applications on this kind of architectures is a complex task that takes a lot of time. In this context, we propose a rapid prototyping tool for this type of architectures. This tool is based on our extension of the Adequacy Algorithm Architecture methodology (AAA). It allows to automatically perform optimized partitioning and scheduling of the application operations on the target architecture components and generation of correspondent codes. We used this tool for the implementation of the motion estimator of the H.264/AVC on an architecture composed of a Nios II processor and Altera Stratix III FPGA. So we were able to verify the correct running of our tool and validate our automatic generator of mixed code
APA, Harvard, Vancouver, ISO, and other styles
34

Dabellani, Éric. "Méthodologie de conception d'architectures reconfigurables dynamiquement, application au transcodage vidéo." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0168/document.

Full text
Abstract:
Malgré des avantages certains en terme d'adaptabilité et en gain de surface, la reconfiguration dynamique sur FPGA a du mal à être utilisée dans l'industrie. Le manque de moyens et de méthodes d'évaluation d'une telle architecture en est la cause majeure. Pire, aucun outil officiel ne permet aux développeurs de déterminer facilement un ordonnancement de la reconfiguration adapté pour une architecture donnée. Cette thèse s'inscrit dans ce contexte et propose une méthodologie de modélisation SystemC d'architectures reconfigurables dynamiquement. Cet outil d'aide à la conception permet de faire gagner un temps considérable lors de la phase de conception en fournissant une première estimation des performances et des ressources nécessaires au développement de l'architecture. Il permet également le développement et la validation de scénarios d'ordonnancement de la reconfiguration, tout en respectant les contraintes temps réel liées à l'application. Afin de valider notre modèle sur une application réelle, des IP de transcodage vidéo ont été développées et seront détaillées. Cette application consiste en la réalisation d'un transcodeur H.264/MPEG-2, rendu auto-adaptable grâce à l'utilisation de la reconfiguration dynamique. Ces travaux ont été menés dans le cadre du projet ARDMAHN financé par l'Agence Nationale de la Recherche portant la référence ANR-09-SEGI-001
Despite clear benefits in terms of fexibility and surface efficiency, dynamic reconfiguration of FPGAs is still finding it hard to break through into massive industrial project. One of the main reasons is the lack of means and methods for evaluation of reconfigurable architectures. Worse, main FPGA vendors do not provide official tools allowing developers to easily determine an optimal scheduling reconfiguration for a specific architecture. Within this framework, the proposed research work described in this thesis proposes a methodology for modeling dynamically reconfigurable architectures based on SystemC. The proposed methodology allows designers to save significant time during the design phases of an application specific reconfigurable architecture by providing an initial estimate of performance and resources needed for its development. It also allows development and validation of scheduling reconfiguration scenarios, while respecting real-time constraints associated with the given application. To validate our methodology on a real application, video transcoding IP have been developed and tested. This application consists in the realization of a H.264/MPEG-2 transcoder made self-adaptable through the use of dynamic reconfiguration. This work was conducted as a part of the ARDMAHN project sponsored by the National Research Agency (Agence Nationale de Recheche) with the reference number ANR-09-SEGI-001
APA, Harvard, Vancouver, ISO, and other styles
35

Hentati, Manel. "Reconfiguration dynamique partielle de décodeurs vidéo sur plateformes FPGA par une approche méthodologique RVC (Reconfigurable Video Coding)." Rennes, INSA, 2012. http://www.theses.fr/2012ISAR0027.

Full text
Abstract:
Les travaux présentés dans cette thèse s'inscrivent dans le cadre de la conception et l'implémentation des décodeurs reconfigurables en utilisant la norme MPEG-RVC. Cette norme est développée par MPEG. Elle permet une grande flexibilité et la réutilisation des normes existantes dans un processus de reconfiguration des solutions de décodage. RVC fournit une nouvelle spécification basée sur une modélisation à flux de données nommée RVC-CAL. Dans ce travail, nous proposons une méthodologie de prototypage rapide permettant une implémentation efficace et optimisée des décodeurs reconfigurables RVC sur des cibles matérielles. Notre flot de conception est basé sur l'utilisation de la reconfiguration dynamique partielle (RDP) afin de valider les approches de reconfiguration permises par la norme MPEG-RVC. En exploitant la technique RDP, le module matériel peut être remplacé par un autre module qui a la même fonction ou le même algorithme mais une architecture différente. Ce concept permet au concepteur de configurer différents décodeurs selon les données d'entrées ou ses exigences (temps de latence, la vitesse, la consommation de la puissance). La RDP peut être aussi utilisée pour réaliser une implémentation hiérarchique des applications RVC. L'utilisation de la norme MPEG-RVC et la RDP permet d'améliorer le processus de développement ainsi que les performances du décodeur. Cependant, la RDP pose plusieurs problèmes tels que le placement des tâches et la fragmentation du FPGA. Ces problèmes ont une influence sur les performances de l'application. Pour remédier à ces problèmes, nous avons proposé une approche de placement hors ligne qui est basée sur l'utilisation d'une méthode d'optimisation, appelée la programmation linéaire. L'application de cette approche sur différentes combinaisons de données ainsi que la comparaison avec une autre méthode ont montré l'efficacité et les performances de l'approche proposée
The main purpose of this PhD is to contribute to the design and the implementation of a reconfigurable decoder using MPEGRVC standard. The standard MPEG-RVC is developed by MPEG. Lt aims at providing a unified high-level specification of current and future MPEG video coding technologies by using dataflow model named RVC-CAL. This standard offers the means to overcome the lack of interpretability between many video codecs deployed in the market. Ln this work, we propose a rapid prototyping methodology to provide an efficient and optimized implementation of RVC decoders in target hardware. Our design flow is based on using the dynamic partial reconfiguration (DPR) to validate reconfiguration approaches allowed by the MPEG-RVC. By using DPR technique, hardware module can be replaced by another one which has the same function or the same algorithm but a different architecture. This concept allows to the designer to configure various decoders according to the data inputs or her requirements (latency, speed, power consumption,. . ). The use of the MPEG-RVC and the DPR improves the development process and the decoder performance. But, DPR poses several problems such as the placement of tasks and the fragmentation of the FPGA area. These problems have an influence on the application performance. Therefore, we need to define methods for placement of hardware tasks on the FPGA. Ln this work, we propose an off-line placement approach which is based on using linear programming strategy to find the optimal placement of hardware tasks and to minimize the resource utilization. Application of different data combinations and a comparison with sate-of-the art method show the high performance of the proposed approach
APA, Harvard, Vancouver, ISO, and other styles
36

Jovanovic, Slavisa. "Architecture reconfigurable de système embarqué auto-organisé." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10099/document.

Full text
Abstract:
A?n de répondre à une complexité croissante des systèmes de calcul, due notamment aux progrès rapides et permanents des technologies de l’information, de nouveaux paradigmes et solutions architecturales basées sur des structures auto-adaptatives, auto-organisées sont à élaborer. Ces dernières doivent permettre d’une part la mise à disposition d’une puissance de calcul suf?sante répondant à des contraintes de temps sévères (traitement temps réel). D’autre part, de disposer d’une grande ?exibilité et adaptabilité dans le but de répondre aux évolutions des traitements ou des défaillances non prévues caractérisant un contexte d’environnement évolutif de fonctionnement du système. C’est dans ce cadre que s’insèrent les travaux de recherche présentés dans cette thèse qui consistent à développer une architecture auto-organisée de type Recon?gurable MPSoC (Multi processor System on Chip) à base de technologie FPGA
The growing complexity of computing systems, mostly due to the rapid progress in Information Technology (IT) in the last decade, imposes on system designers to orient their traditional design concepts towards the new ones based on self-organizing and self-adaptive architectural solutions. On the one hand, these new architectural solutions should provide a system with a suf?cient computing power, and on the other hand, a great ?exibility and adaptivity in order to cope with all non-deterministic changes and events that may occur in the environnement in which it evolves. Within this framework, a recon?gurable MPSoC self-organizing architecture on the FPGA recon?gurable technology is studied and developped during this PhD
APA, Harvard, Vancouver, ISO, and other styles
37

Causo, Matteo. "Neuro-Inspired Energy-Efficient Computing Platforms." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10004/document.

Full text
Abstract:
Les Big Data mettent en évidence tous les défauts du paradigme de l'informatique classique. Au contraire, le Neuro-Inspiré traite les Big Data comme ressources pour progresser. Dans cette thèse, nous adoptons les principes de Hierarchical Temporal Memory (HTM) comme références neuroscientifiques et nous élaborons sur la façon dont le Bayesian Machine Learning (BML) mène les approches dans le Neuro-Inspiré à s’unifier et à atteindre nos objectives: (i) la simplification et l'amélioration des algorithmes de BML et (ii) l'approche au Neuro-Inspiré avec une prospective Ultra-Low-Power. Donc, nous nous efforçons d'apporter le traitement intelligent proche aux sources de données et de populariser le BML sur l'électronique strictement limitées tels que les appareils portables, mettable et implantables. Cependant, les algorithmes de BML ont besoin d’être optimisés. En fait, leur mise en œuvre en HW est ni efficaces, ni réalisables en raison de la mémoire, la puissance de calcul requises. Nous proposons un algorithme moins complexe, en ligne, distribué et non paramétrique et montrons de meilleurs résultats par rapport aux solutions de l’état de l’art. En fait, nous gagnons deux ordres de grandeur de réduction en complexité au niveau algorithmique et un autre ordre de grandeur grâce à des techniques traditionnelles d'optimisation HW. En particulier, nous concevons une preuve de concept sur une plateforme FPGA pour l'analyse en temps réel d’un flux de données. Enfin, nous démontrons d’être en mesure de résumer les ultimes découvertes du domaine du BML sur un algorithme généralement valide qui peut être mis en œuvre en HW et optimisé pour des applications avec des ressources limitées
Big Data highlights all the flaws of the conventional computing paradigm. Neuro-Inspired computing and other data-centric paradigms rather address Big Data to as resources to progress. In this dissertation, we adopt Hierarchical Temporal Memory (HTM) principles and theory as neuroscientific references and we elaborate on how Bayesian Machine Learning (BML) leads apparently totally different Neuro-Inspired approaches to unify and meet our main objectives: (i) simplifying and enhancing BML algorithms and (ii) approaching Neuro-Inspired computing with an Ultra-Low-Power prospective. In this way, we aim to bring intelligence close to data sources and to popularize BML over strictly constrained electronics such as portable, wearable and implantable devices. Nevertheless, BML algorithms demand for optimizations. In fact, their naïve HW implementation results neither effective nor feasible because of the required memory, computing power and overall complexity. We propose a less complex on-line, distributed nonparametric algorithm and show better results with respect to the state-of-the-art solutions. In fact, we gain two orders of magnitude in complexity reduction with only algorithm level considerations and manipulations. A further order of magnitude in complexity reduction results through traditional HW optimization techniques. In particular, we conceive a proof-of-concept on a FPGA platform for real-time stream analytics. Finally, we demonstrate we are able to summarize the ultimate findings in Machine Learning into a generally valid algorithm that can be implemented in HW and optimized for strictly constrained applications
APA, Harvard, Vancouver, ISO, and other styles
38

Raimbaud, Pierre. "La réalité virtuelle pour les besoins de l'industrie du bâtiment : guider la conception des interactions utilisateurs grâce à une méthodologie centrée sur les tâches." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE012.

Full text
Abstract:
Le domaine de la réalité virtuelle (RV) a connu un développement important ces dernières années en raison de la maturité croissante de cette technologie. Cela a permis sa diffusion dans de nombreux domaines, notamment dans celui du bâtiment. Cependant, un problème résultant de l’utilisation de la RV dans ce domaine est que les interactions de RV fournies aux utilisateurs ne sont souvent pas suffisamment adaptées à leurs besoins. Il est en effet difficile de faire une synthèse entre l’expertise des métiers du bâtiment et l’expertise de la RV. Une question de recherche se pose alors qui est de savoir comment offrir la possibilité aux experts d’un domaine spécifique, qui n’ont pas d’expertise en RV, d’arriver à définir et obtenir les spécifications des techniques d’interaction de RV, et ce de manière autonome. Pour répondre à cette question, nous proposons dans cette recherche une nouvelle méthodologie centrée sur les tâches, pour la conception des interactions de RV. Celle-ci contient des systèmes semi-automatiques qui permettent la décomposition de la tâche utilisateur et la détermination de propositions de techniques d’interaction - i.e. l’obtention des deux types de spécifications attendus. Cette méthodologie a été testée et évaluée sur deux cas d’étude du secteur du bâtiment. Les résultats obtenus montrent que notre méthodologie est utilisable par des experts du bâtiment, en autonomie, et qu’ils ont obtenu des spécifications similaires `a celles qui sont obtenues en suivant une méthodologie traditionnelle de design centrée sur l’utilisateur
The field of virtual reality (VR) has undergone significant development these last years due to the growing maturity of this technology. This has allowed for its diffusion in many domains, notably in the building construction one. However, a problem resulting from such use of VR is that the VR interactions provided to the users are often not sufficiently adapted to their needs. It is indeed difficult to make a synthesis between the building trades’ expertise and the VR expertise. A research question then arises, which is how to allow the experts in a specific field, who do not have VR expertise, to be able to define and obtain the specifications of VR interaction technique, in autonomy. To answer this question, in this research we propose a new task-oriented methodology for the design of VR interactions. This one contains semi-automated systems that allow for the decomposition of the user task and for the determination of proposals of VR interaction techniques - i.e. the obtaining of the two types of specifications that are expected here. This methodology has been tested and evaluated on two case studies from the building sector. The results obtained show that our methodology can be used by experts from the construction industry, in autonomy, and that they have obtained specifications similar to the ones obtained by following a traditional user-centred design methodology
APA, Harvard, Vancouver, ISO, and other styles
39

Pratomo, Istas. "Adaptive NoC for reconfigurable SoC." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00980066.

Full text
Abstract:
Chips will be designed with billions of transistors and heterogeneous components integrated to provide full functionality of a current application for embedded system. These applications also require highly parallel and flexible communicating architecture through a regular interconnection network. The emerging solution that can fulfill this requirement is Network-on-Chips (NoCs). Designing an ideal NoC with high throughput, low latency, minimum using resources, minimum power consumption and small area size are very time consuming. Each application required different levels of QoS such as minimum level throughput delay and jitter. In this thesis, firstly, we proposed an evaluation of the impact of design parameters on performance of NoC. We evaluate the impact of NoC design parameters on the performances of an adaptive NoCs. The objective is to evaluate how big the impact of upgrading the value on performances. The result shows the accuracy of choosing and adjusting the network parameters can avoid performance degradation. It can be considered as the control mechanism in an adaptive NoC to avoid the degradation of QoS NoC. The use of deep sub-micron technology in embedded system and its variability process cause Single Event Upsets (SEU) and ''aging'' the circuit. SEU and aging of circuit is the major problem that cause the failure on transmitting the packet in a NoC. Implementing fault-tolerant routing techniques in NoC switching instead of adding virtual channel is the best solution to avoid the fault in NoC. Communication performance of a NoC is depends heavily on the routing algorithm. An adaptive routing algorithm such as fault-tolerant has been proposed for deadlock avoidance and load balancing. This thesis proposed a novel adaptive fault-tolerant routing algorithm for 2D mesh called Gradient and for 3D mesh called Diagonal. Both algorithms consider sequences of alternative paths for packets when the main path fails. The proposed algorithm tolerates faults in worst condition traffic in NoCs. The number of hops, the number of alternative paths, latency and throughput in faulty network are determined and compared with other 2D mesh routing algorithms. Finally, we implemented Gradient routing algorithm into FPGA. All these work were validated and characterized through simulation and implemented into FPGA. The results provide the comparison performance between proposed method with existing related method using some scenarios.
APA, Harvard, Vancouver, ISO, and other styles
40

Mabrouk, Lhoussein. "Contribution à l'implémentation des algorithmes de vision avec parallélisme massif de données sur les architectures hétérogènes CPU/GPU." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT009.

Full text
Abstract:
Le mélange de gaussiennes (MoG) et l'acquisition comprimée (CS) sont deux algorithmes utilisés dans de nombreuses applications de traitement d'image et du son. Leur combinaison, CS-MoG, a été récemment utilisée pour la soustraction de fond dans des applications de détection des objets mobiles. Néanmoins, les implémentations de CS-MoG présentées dans la littérature ne profitent pas pleinement de l'évolution des architectures hétérogènes. Ces travaux de thèse proposent deux contributions pour l'implémentation efficace de CS-MoG sur architectures parallèles hétérogènes CPU/GPU. Ces dernières offrent de nos jours une grande flexibilité de programmation permettant d’optimiser les performances ainsi que l’efficacité énergétique.Notre première contribution consiste à offrir le meilleur compromis accélération-précision sur CPU et GPU. La seconde est la proposition d'une nouvelle approche adaptative de partitionnement de données permettant d'exploiter pleinement l'ensemble des CPUs-GPUs. Quelles que soient leurs performances relatives, cette approche, appelée Curseur de Distribution Optimale de Données (ODDC), vise à assurer un équilibrage automatique de la charge de calcul en estimant la proportion optimale des données qui doit être affectée à chaque processeur, en prenant en compte sa capacité de calcul.Cette approche met à jour ce partitionnement en ligne ce qui permet de prendre en compte toute influence de l'irrégularité du contenu des images traitées. En termes d’objets mobiles, nous ciblons principalement les véhicules dont la détection représente un ensemble de défis, mais afin de généraliser notre approche, nous testons également des scènes contenant d’autres types de cibles.Les résultats expérimentaux, sur différentes plateformes et jeux de données, montrent que la combinaison de nos deux contributions permet d'atteindre 98% des performances maximales possibles sur ces plateformes. Ces résultats peuvent être aussi bénéfiques pour d'autres algorithmes où les calculs s'effectuent d'une manière indépendante sur des petits grains de données
Mixture of Gaussians (MoG) and Compressive Sensing (CS) are two common algorithms in many image and audio processing systems. Their combination, CS-MoG, was recently used for mobile objects detecting through background subtraction. However, the implementations of CS-MoG presented in previous works do not take full advantage of the heterogeneous architectures evolution. This thesis proposes two contributions for the efficient implementation of CS-MoG on heterogeneous parallel CPU/GPU architectures. These technologies nowadays offer great programming flexibility, which allows optimizing performance as well as energy efficiency.Our first contribution consists in offering the best acceleration-precision compromise on CPU and GPU. The second is the proposition of a new adaptive approach for data partitioning, allowing to fully exploiting the CPUs-GPUs. Whatever their relative performance, this approach, called the Optimal Data Distribution Cursor (ODDC), aims to ensure automatic balancing of the computational load by estimating the optimal proportion of data that has to be affected to each processor, taking into account its computing capacity.This approach updates the partitioning online, which allows taking into account any influence of the irregularity of the processed images content. In terms of mobile objects, we mainly target vehicles whose detection represents some challenges, but in order to generalize our approach, we test also scenes containing other types of targets.Experimental results, on different platforms and datasets, show that the combination of our two contributions makes it possible to reach 98% of the maximal possible performance on these platforms. These results can also be beneficial for other algorithms where calculations are performed independently on small grains of data
APA, Harvard, Vancouver, ISO, and other styles
41

Bey, Christophe. "Gestion des ressources cognitives et stratégies d'adaptation court terme chez les pilotes d'aéronefs." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0428/document.

Full text
Abstract:
L’industrie aéronautique poursuit depuis de nombreuses années l’objectif d’un niveau optimal de sécurité dans le cadre du transport aérien. En ce qui concerne l’aviation militaire, plus exactement tactique, cette priorité se double d’une recherche de performance de plus en plus élevée et polymorphe. Ce qui caractérise ce type d’aviation, c’est le rapport entre la performance poursuivie et les risques acceptés. Il dépend essentiellement du contexte et des enjeux des missions à réaliser.L’approche facteur humain constitue un levier d’action majeur pour permettre la réalisation de cet enjeu. Ainsi, dans le cadre contraint de l’aéronautique, la conception et la mise au point d’outils permettant d’assister la cognition des équipages demeure une perspective d’avenir même si la formation des pilotes devient également un enjeu majeur pour les prochaines années. Dans ce contexte, la gestion des ressources cognitives, et plus particulièrement les stratégies spécifiques de gestion mises en place par les pilotes, sont centrales au processus de prise de décision sous contraintes.Dans une démarche de recherche et d’ingénierie en cognitique, nous avons entrepris une étude impliquant des pilotes et permettant la compréhension de ces mécanismes ainsi que la production de recommandations pour la conception d’outil d’aide à la gestion de leurs ressources cognitives. A partir de l’analyse du retour d’expériences, et sur la base des résultats d’une approche expérimentale préliminaire, nous avons construit un protocole pour mettre en évidence les stratégies mises en place par les pilotes, dans le cadre d’une activité réelle, lors de la descente et de l’approche finale sur l’aéroport de Clermont-Ferrand avec une panne critique. Les résultats expérimentaux conciliés à nos hypothèses de compréhension sur la gestion des ressources cognitives et les stratégies de gestion, achèvent notre analyse et nos recommandations pour un outil d’aide à la gestion des ressources des pilotes.14 équipages d’Airbus A400M de l’armée de l’air ont participés à cette évaluation en simulateur
The aviation industry has for many years pursued the objective of an optimum level of safetyin the air transport sector. With regard to military aviation, more precisely tactical, thispriority is coupled with an increasingly high and polymorphic search for performance. Whatcharacterize this type of aviation is the relationship between the performance pursued and theaccepted risks. It depends essentially on the context and the stakes of the missions to becarried out.The human factor approach is a major leverage for achieving this challenge. Thus, within theconstrained domain of aeronautics, the design and development of tools to assist crewcognition remains a prospect for the future, even if pilot training also becomes a majorchallenge for the coming years. In this context, the management of cognitive resources, and inparticular the specific management strategies put in place by the pilots, are central to thedecision-making process under constraints.In a research and engineering approach in cognition, we undertook a study involving pilotsand allowing the understanding of these mechanisms as well as the production ofrecommendations for the design of tools to help manage their cognitive resources. On thebasis of the analysis of feedback, and results of a preliminary experimental approach, we havebuilt a protocol to highlight the strategies implemented by the pilots in the context of anactivity during the descent and the final approach on the Clermont-Ferrand airport with acritical breakdown. The experimental results reconciled with our understanding hypotheseson the management of cognitive resources and management strategies, complete our analysisand recommendations for a tool to help manage the resources of the pilots
APA, Harvard, Vancouver, ISO, and other styles
42

Bollengier, Théotime. "Du prototypage à l’exploitation d’overlays FPGA." Thesis, Brest, École nationale supérieure de techniques avancées Bretagne, 2018. http://www.theses.fr/2018ENTA0003/document.

Full text
Abstract:
De part leur capacité de reconfiguration et les performances qu’ils offrent, les FPGAs sont de bons candidats pour accélérer des applications dans le Cloud. Cependant, les FPGAs présentent certaines caractéristiques qui font obstacle à leur utilisation dans le Cloud et leur adoption par les clients : premièrement, la programmation des FPGAs se fait à bas niveau et demande une certaine expertise, que n’ont pas nécessairement les clients habituels du Cloud. Deuxièmement, les FPGAs ne présentent pas de mécanismes natifs permettant leur intégration dans le modèle de gestion dynamique d’une infrastructure Cloud.Dans ce travail, nous proposons d’utiliser des architectures overlay afin de faciliter l’adoption, l’intégration et l’exploitation de FPGAs dans le Cloud. Les overlays sont des architectures reconfigurables elles-mêmes implémentée sur FPGA. En tant que couche d’abstraction matérielle placée entre le FPGA et les applications, les overlays permettent de monter le niveau d’abstraction du modèle d’exécution présenté aux applications et aux utilisateurs, ainsi que d’implémenter des mécanismes facilitant leur intégration et leur exploitation dans une infrastructure Cloud.Ce travail présente une approche verticale adressant tous les aspects de la mise en œuvre d’overlays dans le Cloud en tant qu’accélérateurs reconfigurables par les clients : de la conception et l’implémentation des overlays, leur intégration sur des plateformes FPGA commerciales, la mise en place de leurs mécanismes d’exploitation, jusqu’à la réalisationde leurs outils de programmation. L’environnement réalisé est complet, modulaire et extensible, il repose en partie sur différents outils existants, et démontre la faisabilité de notre approche
Due to their reconfigurable capability and the performance they offer, FPGAs are good candidates for accelerating applications in the cloud. However, FPGAs have some features that hinder their use in the Cloud as well as their adoption by customers : first, FPGA programming is done at low level and requires some expertise that usual Cloud clients do not necessarily have. Secondly, FPGAs do not have native mechanisms allowing them to easily fit in the dynamic execution model of the Cloud.In this work, we propose to use overlay architectures to facilitate FPGA adoption, integration, and operation in the Cloud. Overlays are reconfigurable architectures synthesized on FPGA. As hardware abstraction layers placed between the FPGA and applications, overlays allow to raise the abstraction level of the execution model presented to applications and users, as well as to implement mechanisms making them fit in a Cloud infrastructure.This work presents a vertical approach addressing all aspects of overlay operation in the Cloud as reconfigurable accelerators programmable by tenants : from designing and implementing overlays, integrating them on commercial FPGA platforms, setting up their operating mechanisms, to developping their programming tools. The environment developped in this work is complete, modular and extensible, it is partially based on several existing tools, and demonstrate the feasibility of our approach
APA, Harvard, Vancouver, ISO, and other styles
43

Hannachi, Marwa. "Placement des tâches matérielles de tailles variables sur des architectures reconfigurables dynamiquement et partiellement." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0297/document.

Full text
Abstract:
Les systèmes adaptatifs basés sur les architectures FPGA (Field-Programmable Gate Arrays) peuvent bénéficier grandement de la grande flexibilité offerte par la reconfiguration partielle dynamique (DPR). Grâce au DPR, les tâches matérielles composant un système adaptatif peuvent être allouées et re-allouées à la demande ou en fonction de l'environnement dynamique. Les flots de conceptions disponibles et les outils commerciaux ont évolué pour répondre aux exigences des architectures reconfigurables qui sont toutefois limitées dans leurs fonctionnalités. Ces outils ne permettent pas un placement et une relocation efficaces de tâches matérielles de tailles variables. L'objectif principal de ces travaux de thèse consiste à proposer des nouvelles méthodologies et de nouvelles approches pour faciliter au concepteur la phase de conception d'un système adaptatif reconfigurable opérationnelle, valide, optimisé et adapté aux changements dynamiques de l'environnement. La première contribution de cette thèse porte sur la problématique de la relocation des tâches matérielles de tailles différentes. Une méthodologie de conception est proposée pour répondre à un problème majeur des mécanismes de relogement : le stockage d'une unique bitstream de configuration pour réduire les besoins de la mémoire et pour accroître la réutilisable des modules matériels générés. Une technique de partitionnement de la région reconfigurable est appliquée dans la méthodologie de relogement proposée pour augmenter l'efficacité d'utilisation des ressources matérielles dans le cas des tâches reconfigurables de tailles variables. Cette méthodologie prend en compte aussi la communication entre différentes régions reconfigurables et la région statique. Pour valider la méthode, plusieurs études de cas sont implémentées. Cette validation montre une utilisation efficace des ressources matérielles ainsi une réduction importante du temps de reconfiguration. La deuxième partie de cette thèse présente et détaille une formulation mathématique afin d'automatiser le floorplanning des zones reconfigurables dans les FPGAs. Les algorithmes de recherche présentés dans cette thèse sont basés sur la technique d'optimisation PLMNE (programmation linéaire mixte en nombres entiers). Ces algorithmes permettent de définir automatiquement l'emplacement, la taille et la forme de la zone reconfigurable dynamique. Nous nous intéressons principalement dans cette recherche à la satisfaction des contraintes de placement des zones reconfigurables et celles liées à la relocation. De plus, nous considérons l’optimisation des ressources matérielles dans le FPGA en tenant compte des tâches de tailles variables. Finalement, une évaluation de l'approche proposée est présentée
Adaptive systems based on Field-Programmable Gate Arrays (FPGA) architectures can benefit greatly from the high degree of flexibility offered by dynamic partial reconfiguration (DPR). Thanks to DPR, hardware tasks composing an adaptive system can be allocated and relocated on demand or depending on the dynamically changing environment. Existing design flows and commercial tools have evolved to meet the requirements of reconfigurables architectures, but that are limited in functionality. These tools do not allow an efficient placement and relocation of variable-sized hardware tasks. The main objective of this thesis is to propose a new methodology and a new approaches to facilitate to the designers the design phase of an adaptive and reconfigurable system and to make it operational, valid, optimized and adapted to dynamic changes in the environment. The first contribution of this thesis deals with the issues of relocation of variable-sized hardware tasks. A design methodology is proposed to address a major problem of relocation mechanisms: storing a single configuration bitstream to reduce memory requirements and increasing the reusability of generating hardware modules. A reconfigurable region partitioning technique is applied in this proposed relocation methodology to increase the efficiency of use of hardware resources in the case of reconfigurable tasks of variable sizes. This methodology also takes into account communication between different reconfigurable regions and the static region. To validate the design method, several cases studies are implemented. This validation shows an efficient use of hardware resources and a significant reduction in reconfiguration time. The second part of this thesis presents and details a mathematical formulations in order to automate the floorplanning of the reconfigurable regions in the FPGAs. The algorithms presented in this thesis are based on the optimization technique MILP (mixed integer linear programming). These algorithms allow to define automatically the location, the size and the shape of the dynamic reconfigurable region. We are mainly interested in this research to satisfy the constraints of placement of the reconfigurable zones and those related to the relocation. In addition, we consider the optimization of the hardware resources in the FPGA taking into account the tasks of variable sizes. Finally, an evaluation of the proposed approach is presented
APA, Harvard, Vancouver, ISO, and other styles
44

Ochoa, Ruiz Gilberto. "A high-level methodology for automatically generating dynamically reconfigurable systems using IP-XACT and the UML MARTE profile." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00932118.

Full text
Abstract:
The main contribution of this thesis consists on the proposition and development a Model-driven Engineering (MDE) framework, in tandem with a component-based approach, for facilitating the design and implementation of Dynamic Partially Reconfigurable (DPR) Systems-on-Chip. The proposed methodology has been constructed around the Metadata-based Composition Framework paradigm, and based on common standards such as UML MARTE and the IEEE IP-XACT standard, an XML representation used for storing metadata about the IPs to be reused and of the platforms to be obtained at high-levels of abstraction. In fact, a componentizing process enables us to reuse the IP blocks, in UML MARTE, by wrapping them with PLB (static IPs) and proprietary (DPR blocks) interfaces. This is attained by reflecting the associated IP metadata to IP-XACT descriptions, and then to UML MARTE templates (IP reuse). Subsequently, these IP templates are used for composing a DPR model that can be exploited to create a Xilinx Platform Studio FPGA-design, through model transformations. The IP reflection and system generation chains were developed using Sodius MDWorkbench, an MDE tool conceived for the creation and manipulation of models and their meta-models, as well as the definition and execution of the associated transformation rules.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography