Dissertations / Theses on the topic 'Adéquation de la communication'

To see the other types of publications on this topic, follow the link: Adéquation de la communication.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Adéquation de la communication.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Boré, Marine. "Autour du principe de contradiction : études et analyses de différentes définitions du principe de contradiction en vue de comprendre le rôle de la notion dans les systèmes philosophiques et de lui conférer une définition en adéquation avec son effectivité." Nantes, 2003. http://www.theses.fr/2003NANT3027.

Full text
Abstract:
La définition du principe de contradiction apparaît comme fondamentalement problématique car, qu'elle soit psychologique, logique ou ontologique, elle manifeste d'elle-même un écart entre ses prétentions théoriques et sa mise en pratique effective. La définition métaphysique pèche par une transcendance excessive, la définition logique par une insatisfaction d'ordre conceptuel. Il s'agit par conséquent d'envisager le principe de contradiction comme un principe éthique et intentionnel de la communication. Il stipule en effet, d'une manière rigoureuse et essentielle, l'engagement intentionnel de tout locuteur dans une communauté de communication comme fondement d'une pratique effective du langage, et impose ainsi la reconnaissance par tout locuteur des normes éthiques de la discussion comme condition de possibilité de l'expression et de la compréhension d'un sens communicable
Principle of contradiction's definition appears fundamentally problematical because considered under psychological, logical or ontological acception, the trouble that principle of contradiction's definition lays down consists in a gap between theoretical ambition and practical uses. So, we have to consider principle of contradiction as an ethical and intentional principle of communication. In fact it reveals in a rigorous and essential way how the intentional pledging of everybody in a communication's society is the base of language's uses and then how every speaker accepts discussion's ethical norms as condition of possibility of expressible and understanding of communicable sens
APA, Harvard, Vancouver, ISO, and other styles
2

Sardar, Shakir. "Organizational communication and employee’s deviant behavior : exploring underlying mechanisms and contextual factors in the Pakistani manufacturing industry." Electronic Thesis or Diss., Aix-Marseille, 2022. http://theses.univ-amu.fr.lama.univ-amu.fr/221212_SARDAR_607baico621z811audm684al_TH.pdf.

Full text
Abstract:
Les chercheurs en communication reconnaissent la nécessité d'élargir et d’approfondir les connaissances dans ce domaine, particulièrement dans les organisations. Une question reste d'actualité : comment la communication organisationnelle impacte-t-elle les attitudes et comportements de travail des salariés ? En plus de cette communication organisationnelle, les chercheurs ont peu exploré les mécanismes sous-jacents et les facteurs contextuels qui pourraient conduire à des comportements déviants. Cette thèse vise à répondre à ces questions. Elle comporte une étude qualitative et une étude quantitative d'employés travaillant dans les industries manufacturières du Pakistan. Pour ce faire, nous avons conclu notre recherche en deux parties. Dans un premier temps, nous avons interrogé des professionnels travaillant dans les industries manufacturières pour comprendre à quel point la communication est essentielle et affecte le comportement au travail des employés. Nous avons réussi à développer une base solide selon laquelle la communication organisationnelle a trois dimensions, à savoir l'adéquation de la communication, le canal de communication et la relation de communication, qui influencent à leur tour l'attitude au travail de l'employé, et plus particulièrement l'engagement et l'identification avec l'organisation. Cette relation est influencée par la culture d’un environnement de travail favorable au sein de l'organisation. S'il y a un déséquilibre dans ces relations, cela peut créer une attitude de travail hostile parmi les employés. Dans une deuxième étape, et dans le but de généraliser nos résultats issus de l’étude qualitative, nous avons développé un modèle de recherche
Communication researchers increasingly recognize the need to expand the field of organizational communication. One question is still valid: how does organizational communication impact employees' working attitudes and behavior? In addition to that organizational communication, researchers have neglected the underlying mechanism and contextual factors that might lead to one’s deviant behavior. This dissertation aims to answer these questions with qualitative and quantitative studies of employees working in the manufacturing industries of Pakistan. To do so, we have concluded our research in two parts. First, we interviewed professionals working in manufacturing industries to understand how much communication is essential and affects employees' working behavior. We succeeded in developing a strong ground that organizational communication has three dimensions, i.e., Adequacy of communication, communication channel, and communication relationship, which are responsible for influencing the employee’s working attitude, i.e., commitment and identification with the organization. This relationship can be supported moderately by the supportive work environment culture in the organization. If there is a misbalance in these relationships, it can create a hostile working attitude among employees. In the second stage, to generalize our qualitative findings, we have developed a hypothesized research model to test the relationship between organizational communication and employees’ deviant behavior by mediating the role of organizational commitment and organizational identification. We have also tested the moderating role of a supportive work environment in the relationship between
APA, Harvard, Vancouver, ISO, and other styles
3

Raouafi, Fathi. "Adéquation turbo codes/processeurs de signal." Brest, 2001. http://www.theses.fr/2001BRES2010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Maria, Nabil. "Adéquation matériel-logiciel pour calculateur neuromimetique." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0066.

Full text
Abstract:
Offrir un ensemble materiel-logiciel puissant, convivial, et complet pour la simulation de reseaux connexionnistes de grande taille et le traitement du signal, tel est le but du projet smart. La puissance de calcul est assuree par un coprocesseur vectoriel fortement inspire des architectures systoliques et particulierement adapte au calcul neuromimetique. En fait, c'est un anneau simd de cellules a controle pipeline disposant d'une puissance crete de 300 mflops. La convivialite provient d'un langage descriptif de haut niveau ouvrant le domaine du connexionnisme a l'ensemble de la communaute scientifique. Allier puissance de calcul et convivialite de programmation necessite un couplage harmonieux entre le materiel et le logiciel. Ceci implique un bon equilibre entre calcul et communication afin de garder une efficacite globale maximale. En particulier, un partage equilibre des taches entre la machine hote et smart et un debit de donnees suffisant sont indispensables. L'une des originalites de smart est de proposer un support materiel pour le traitement de matrices diluees (contenant un grand nombre de connexions nulles) et de supporter une gestion dynamique de ces connexions (ajout et suppression). Ainsi, les operations vectorielles de base sont generalisees au traitement creux d'une facon transparente. Le simulateur architectural de la machine smart, decrit dans ce travail, est un outil precieux d'analyse et d'optimisation des applications sur smart et par consequent de validation de l'architecture. Dans ce travail, nous avons traite des problemes de partitionnement de donnees, de gestion des structures creuses et de communication. Nous avons montre, sur des exemples concrets, la puissance et l'interet de l'approche smart. La methodologie utilisee peut servir de base pour le developpement d'outils automatiques qui seront eventuellement integres dans un generateur de code
APA, Harvard, Vancouver, ISO, and other styles
5

Valentin, Thierry. "Méthode de conception d'architectures tolérantes aux fautes transitoires à base de composants commerciaux : application aux communications en milieu spatial." Lorient, 2000. http://www.theses.fr/2000LORIS010.

Full text
Abstract:
Dans le domaine spatial, les architectures de systèmes embarqués de nouvelle génération devront répondre à des critères encore plus contraignants de masse, coût et performance. Pour répondre à ces critères contradictoires, il est nécessaire d'analyser la possibilité de faire appel aux composants commerciaux (cots). Cela répond également à un besoin d'adaptation à la réduction de l'offre en composants haute fiabilité. L'objectif principal de cette étude est d'analyser les différentes solutions de détection et de recouvrement d'erreur de type SEU, puis de développer une méthodologie qui, partant d'un algorithme de traitement de signal et d'image TDSI (compression multirésolution d'images satellitaires pour notre application), permet la définition d'une architecture tolérante aux fautes transitoires (TFT) optimisée à base d'un DSP commercial. Nous proposons dans cette thèse une nouvelle approche pour réaliser la surveillance du flux d'information. Il s'agit de la vérification du flot d'adresses de données (détection de S. E. U. ) dans l'unité de mémorisation). L'approche s'appuie sur le principe de l'analyse de signature et cherche à adapter le polynome générateur de signatures pour rendre uniques les signatures des blocs linéaires d'adresses (BLA) associés au traitement en boucle d'un BLI (Bloc linéaire d'instructions) ; Cas représentatif des algorithmes TDSI. Nous avons ainsi proposé trois modes de compaction possibles où chacun cherche à réduire la complexité du matériel et de calcul tout en essayant d'augmenter le taux de couverture. D'autre part, nous avons montré l'invariance temporelle de la séquence d'adresses générée par chaque itération de l'algorithme utilisé. Ainsi, la méthode proposée permet de couvrir tous les accès à la mémoire de données externes crées en cours de fonctionnement
APA, Harvard, Vancouver, ISO, and other styles
6

Kofman, Émilien. "Adéquation algorithme architecture automatisée par solveur SMT." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4009/document.

Full text
Abstract:
Nous décrivons l'environnement et la méthode Symsched dédiée à la conception conjointe dite AAA (adéquation algorithme architecture) prenant en compte les différents compromis performance énergie admissibles pour un système embarqué. Nous traduisons les descriptions des différents composants (exigences de l'application et capacités de l'architecture) en un système d'équations et inéquations composé de variables entières qui modélisent les aspects temporels et de variables booléennes qui modélisent les différentes alternatives de placement des tâches. Ce problème est ensuite soumis à un outil de résolution automatique de type SMT (SAT Modulo Theories). Notre objectif est d'étudier le passage à l'échelle de telles méthodes et donc le compromis entre le niveau de description et l'expressivité portant sur les différents aspects nécessaires à la modélisation. Nous appliquons ensuite cette technique à des problèmes d'ordonnancement abstraits, réalistes et réels
We describe the Symsched methodology and environment for AAA design (Application Architecture Adequation). It allows to evaluate the energy/performance balance for a given embedded system. We translate the different components of the problem (application requirements et architecture provisions) in a system of equations and inequations made of integer variables for the modeling of temporal aspects and boolean variables for the modeling of admissible task mapping and resource states. We then submit this problem to an automatic search engine SMT solver (SAT Modulo Theories). We study the scalability of this methodology and its compromises with models expressiveness. We then study synthetic, realistic and real scheduling problems using this approach
APA, Harvard, Vancouver, ISO, and other styles
7

Ginhac, Dominique. "Adéquation Algorithme architecture : Aspects logiciels, matériels et cognitifs." Habilitation à diriger des recherches, Université de Bourgogne, 2008. http://tel.archives-ouvertes.fr/tel-00646480.

Full text
Abstract:
Les travaux présentés dans le cadre de cette Habilitation à Diriger des Recherches s'inscrivent principalement dans la problématique dite d'" Adéquation Algorithme Architecture ". Ils ont pour objectif commun la mise en œuvre de systèmes matériels et logiciels dédiés à la vision artificielle à fortes contraintes temporelles. Ils se focalisent sur différents aspects cruciaux tels que l'acquisition d'images par des capteurs dédiés, le développement et la programmation d'architectures optimisées de traitement des images et l'implantation d'algorithmes de traitement du signal et d'images en temps réel sur ces architectures.
APA, Harvard, Vancouver, ISO, and other styles
8

Tisserand, Arnaud. "Adéquation arithmétique architecture, problèmes et étude de cas." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 1997. http://tel.archives-ouvertes.fr/tel-00445752.

Full text
Abstract:
Les machines actuelles offrent de plus en plus de fonctionnalités arithmétiques au niveau matériel. Les générations actuelles de processeurs proposent des opérateurs matériels rapides pour le calcul des divisions, des racines carrées, des sinus, des cosinus, des logarithmes... La littérature du domaine montre qu'en changeant notre façon de représenter les nombres et/ou en utilisant des algorithmes spécifiques de calcul, il est possible de réaliser des opérateurs matériels particulièrement efficaces. Le but de cette thèse est d'étudier et d'illustrer les liens profonds existants entre l'arithmétique et l'architecture des ordinateurs à travers quatre problèmes. Les Opérateurs Arithmétiques Asynchrones permettent de calculer les fonctions arithmétiques (addition, multiplication, division) avec un délai variable. En particulier, nous avons développé un additionneur asynchrone dont le temps moyen de calcul est O(sqrt(\log n)). L'Arithmétique En-Ligne permet de réaliser des architectures où les nombres circulent en série, chiffre par chiffre, les poids forts en tête. L'intérêt de cette arithmétique est de pouvoir calculer toutes les fonctions (en arithmétique série poids faibles en tête, il n'est pas possible de calculer les divisions et les maximums) et d'obtenir des opérateurs de petite taille avec un nombre d'entrées/sorties plus faible que leur équivalents parallèles. L'Arrondi Exact des Fonctions Elémentaires consiste à déterminer la précision intermédiaire permettant de toujours pouvoir arrondir "exactement" les résultats du calcul des fonctions élémentaires (sinus, cosinus, exponentielle...). Nous proposons dans cette thèse une méthode qui permet d'arrondir exactement les fonctions élémentaires assez rapidement. Le Système Semi-Logarithmique de Représentation des Nombres est un système permettant d'effectuer rapidement les calculs de problèmes dont le nombre de multiplications/divisions est grand devant le nombre d'additions/soustractions.
APA, Harvard, Vancouver, ISO, and other styles
9

Roux, Sébastien. "Adéquation algorithme-architecture pour le traitement multimédia embarqué." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0010.

Full text
Abstract:
Cette thèse traite de la faisabilité de l'intégration d'un service de visiophonie sur les terminaux mobiles de prochaine génération au travers d'une méthodologie de conception des systèmes multimédia embarqués. Nous commençons par situer le contexe de l'étude, les réseaux 3G, les terminaux mobiles, les processus pour le codage vidéo, ainsi que les normes de codage des groupes ISO/MPEG et UIT-T. Puis, nous proposons une méthodologie de conception au niveau système prenant en compte les contraintes de l'embarqué en particulier, l'autonomie du terminal que nous appliquons au codeur vidéo H. 263 (recommandation UIT-T). Cette méthodologie s'articule autour de deux axes: algorithmique (spécification système et analyse de performance) et architectural (partitionnement matériel/logiciel et analyse de l'efficacité de l'implémentation). Face aux contraintes de la visiophonie embarquée, nous proposons un nouveau schéma de compression vidéo exploitant l'information sémantique de l'image vidéo, dans l'esprit de la orme MPEG-4 (codage objet). Nous proposons ainsi, à la fois un algorithme adaptatif pour l'extraction du visage, et un nouveau schéma de codage pour la compression vidéo à très bas débit.
APA, Harvard, Vancouver, ISO, and other styles
10

Romera, Thomas. "Adéquation algorithme architecture pour flot optique sur GPU embarqué." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS450.

Full text
Abstract:
Cette thèse porte sur l'optimisation et l'implémentation efficace d'algorithmes d'estimation du mouvement des pixels (flot optique) sur des processeurs graphiques (GPU) embarqués. Deux algorithmes itératifs ont été étudiés : la méthode de Variation Totale - L1 (TV-L1) et la méthode de Horn-Schunck. L’objectif est d’obtenir un traitement temps réel (moins de 40 ms par images) sur des plateformes embarquées à faible consommation énergétique, tout en gardant une résolution image et une qualité d’estimation du flot acceptable pour les applications visées. Différents niveaux de stratégies d'optimisation ont été explorés. Des transformations algorithmiques de haut niveau, telles que la fusion d'opérateurs et le pipeline d'opérateurs, ont été mises en œuvre pour maximiser la réutilisation des données et améliorer la localité spatiale/temporelle. De plus, des optimisations bas niveau spécifiques aux GPU, notamment l'utilisation d'instructions et de nombres vectoriels, ainsi qu'une gestion efficace de l'accès à la mémoire, ont été intégrées. L'impact de la représentation des nombres en virgule flottante (simple précision par rapport à demi-précision) a également été étudié. Les implémentations ont été évaluées sur les plateformes embarquées Nvidia Jetson Xavier, TX2 et Nano en termes de temps d'exécution, de consommation énergétique et de précision du flot optique. Notamment, la méthode TV-L1 présente une complexité et une intensité de calcul plus élevées par rapport à Horn-Schunck. Les versions les plus rapides de ces algorithmes atteignent ainsi un temps de traitement de 0,21 nanosecondes par pixel par itération en demi-précision sur la plate-forme Xavier. Cela représente une réduction du temps d'exécution de 22x par rapport aux versions CPU efficaces et parallèles. De plus, la consommation d'énergie est réduite d'un facteur x5,3. Parmi les cartes testées, la plate-forme embarquée Xavier, à la fois la plus puissante et la plus récente, offre systématiquement les meilleurs résultats en termes de vitesse et d'efficacité énergétique. La fusion d'opérateurs et le pipelining se sont avérés essentiels pour améliorer les performances sur GPU en favorisant la réutilisation des données. Cette réutilisation des données est rendue possible grâce à la mémoire Shared des GPU, une petite mémoire d'accès rapide permettant le partage de données entre les threads du même bloc de threads GPU. Bien que la fusion de plusieurs itérations apporte des gains de performance, elle est limitée par la taille de la mémoire Shared, nécessitant des compromis entre l'utilisation des ressources et la vitesse. L'utilisation de nombres en demi-précision accélère les algorithmes itératifs et permet d'obtenir une meilleure précision du flot optique dans le même laps de temps par rapport aux versions en simple-précision. Les implémentations en demi-précision convergent plus rapidement en raison de l'augmentation du nombre d'itérations réalisables dans un délai donné. Plus précisément, l'utilisation de nombres en demi-précision sur la meilleure architecture GPU accélère l'exécution jusqu'à 2,2x pour TV-L1 et 3,7x pour Horn-Schunck. Ces travaux soulignent l'importance des optimisations spécifiques aux GPU pour les algorithmes de vision par ordinateur, ainsi que l'utilisation et l'étude des nombres à virgule flottante de précision réduite. Ils ouvrent la voie à des améliorations futures grâce à des différentes transformations algorithmiques, à des formats numériques différents et à des architectures matérielles nouvelles. Cette approche peut également être étendue à d'autres familles d'algorithmes itératifs
This thesis focus on the optimization and efficient implementation of pixel motion (optical flow) estimation algorithms on embedded graphics processing units (GPUs). Two iterative algorithms have been studied: the Total Variation - L1 (TV-L1) method and the Horn-Schunck method. The primary objective of this work is to achieve real-time processing, with a target frame processing time of less than 40 milliseconds, on low-power platforms, while maintaining acceptable image resolution and flow estimation quality for the intended applications. Various levels of optimization strategies have been explored. High-level algorithmic transformations, such as operator fusion and operator pipelining, have been implemented to maximize data reuse and enhance spatial/temporal locality. Additionally, GPU-specific low-level optimizations, including the utilization of vector instructions and numbers, as well as efficient memory access management, have been incorporated. The impact of floating-point number representation (single-precision versus half-precision) has also been investigated. The implementations have been assessed on Nvidia's Jetson Xavier, TX2, and Nano embedded platforms in terms of execution time, power consumption, and optical flow accuracy. Notably, the TV-L1 method exhibits higher complexity and computational intensity compared to Horn-Schunck. The fastest versions of these algorithms achieve a processing rate of 0.21 nanoseconds per pixel per iteration in half-precision on the Xavier platform, representing a 22x time reduction over efficient and parallel CPU versions. Furthermore, energy consumption is reduced by a factor of x5.3. Among the tested boards, the Xavier embedded platform, being both the most powerful and the most recent, consistently delivers the best results in terms of speed and energy efficiency. Operator merging and pipelining have proven to be instrumental in improving GPU performance by enhancing data reuse. This data reuse is made possible through GPU Shared memory, which is a small, high-speed memory that enables data sharing among threads within the same GPU thread block. While merging multiple iterations yields performance gains, it is constrained by the size of the Shared memory, necessitating trade-offs between resource utilization and speed. The adoption of half-precision numbers accelerates iterative algorithms and achieves superior optical flow accuracy within the same time frame compared to single-precision counterparts. Half-precision implementations converge more rapidly due to the increased number of iterations possible within a given time window. Specifically, the use of half-precision numbers on the best GPU architecture accelerates execution by up to x2.2 for TV-L1 and x3.7 for Horn-Schunck. This work underscores the significance of both GPU-specific optimizations for computer vision algorithms, along with the use and study of reduced floating point numbers. They pave the way for future enhancements through new algorithmic transformations, alternative numerical formats, and hardware architectures. This approach can potentially be extended to other families of iterative algorithms
APA, Harvard, Vancouver, ISO, and other styles
11

Mossio, Matteo. "Adéquation théorique et maîtrise expérimentale : une enquête interdisciplinaire en sciences cognitives." Paris 6, 2006. http://www.theses.fr/2006PA066389.

Full text
Abstract:
Cette thèse présente les résultats d’un travail interdisciplinaire consacré d’une part à l’adéquation théorique des modèles explicatifs et, d’autre part, à la maîtrise des dispositifs expérimentaux qui procède d’une telle adéquation. Dans la première partie, nous explicitons deux postulats dont la validité est une condition de possibilité pour qu’un modèle puisse être validé par tout dispositif équivalent. Nous exposons ensuite les résultats de notre travail expérimental, en insistant sur l’observation d’une forte variabilité intersubjective. Nous mettons en avant l’idée que l’utilisation de l’inférence statistique ne représente pas une réponse entièrement satisfaisante au défi posé par la variabilité expérimentale. En revanche, la spécificité des systèmes cognitifs semble requérir une théorie plus adéquate, capable notamment de fournir une meilleure maîtrise des dispositifs expérimentaux. Dans la deuxième partie, nous développons une hypothèse d’après laquelle l’attitude « fonctionnaliste » pourrait être une des causes principales de l’inadéquation théorique, en raison de la « disqualification » de la complexité des systèmes cognitifs qu’elle met en oeuvre. Nous approfondissons spécifiquement l’analyse des invariants sensorimoteurs, dont nous proposons une caractérisation non fonctionnaliste. Enfin, nous montrons comment les invariants sensorimoteurs, ainsi caractérisés, se différencient substantiellement d’autres classes d’invariants perceptifs habituellement étudiés en Sciences Cognitives. Dans la conclusion, nous esquissons un programme de recherche qui vise à développer une approche non fonctionnaliste, fondée sur un ancrage plus étroit aux théories de l’autonomie biologique.
APA, Harvard, Vancouver, ISO, and other styles
12

Favard, Sébastien. "Adéquation granularité opérateur - granularité architecture dans un système de traitement reconfigurable." Compiègne, 2002. http://www.theses.fr/2002COMP1428.

Full text
Abstract:
Les systèmes informatiques dédiés au traitement du signal et de l’image sont de plus en plus équipés de modules câblés pour accélérer les traitements de bas niveau. La cible technologique est souvent les composants programmables de haute densité de types FPGA (Field programmable Gate Array), plate-forme intéressante pour le prototypage rapide de nouveaux algorithmes, étant donné leur fort potentiel de parallélisme à un grain très fin et de la possibilité de leur reprogrammation. Nous avons étudié d’une manière approfondie des composants FPGA actuels afin d’améliorer l’appariement de la granularité d’un opérateur au grain matériel habituellement constaté sur ces familles de composants. L’approche traditionnellement ‘descendante’ dans la procédure de l’adéquation algorithme architecture nous oblige actuellement à apparier la granularité des opérations de base constituant le traitement implanté, à la granularité des blocs logiques internes de ces composants. Le principal inconvénient de cette approche est l’obtention de blocs fonctionnels dont le délai de traversée dépasse le délai imparti pour respecter le synchronisme du modèle d’exécution. De plus, le taux d’occupation des ressources de calcul et de routage s’en trouve diminué. Dans nos travaux, nous avons proposé d’emprunter plutôt une approche ‘ascendante’, où une optimisation de l’assemblage des cellules de base des composants reconfigurables a été mise au point, plus adaptée au grain des opérateurs constaté dans les fonctions de traitement du signal et de l’image de bas niveau. Une réduction des ressources de l’ordre de 30% a été réalisée par exemple pour des opérateurs de multiplication d’une constante par une variable ou pour la structure d’un additionneur de base. L’ensemble des résultats obtenus a permis d’introduire un axe supplémentaire d’optimisation ‘sub-opérateur’ pour les algorithmes de traitement du signal implantés en matériel, sur une plate-forme reconfigurable.
APA, Harvard, Vancouver, ISO, and other styles
13

Deschamps, Romaine. "Adéquation de l'approche terminologique à la spécificité d'un secteur multidisciplinaire d'activités." Paris 13, 2002. http://www.theses.fr/2002PA131018.

Full text
Abstract:
Les principes théoriques et méthologiques de la terminologie sous-tendent l'organisation et la description des domaines de connaissances et constituent le socle de structuration des ouvrages terminographiques. La méthodologie conçue dans le cadre de la normalisation technologique a été appliquée essentiellement à la constitution de terminologies dans les domaines des sciences et des techniques mais rarement dans d'autres disciplines ou secteurs d'activités tels que les sciences sociales et humaines, les domaines administratifs ou économiques. Cette méthologie peut pourtant s'avérer fort utile pour élaborer des dictionnaires dans différents domaines du savoir en l'adaptant cependant à leurs caractéristiques spécifiques. Néanmoins, chercher à établir un modèle uniforme et stable d'organisation est illusoire en regard de la diversification croissante des domaines d'activités, des transformations constantes de l'environnement social et professionnel. Notre recherche s'inscrit dans ce processus d'évolution et d'adaptation nécessaire de la pratique terminographique à un champs élargi de connaissances et à la satisfaction de nouveaux besoins professionnels. Elle a pour objet d'évaluer pragmatiquement, à partir de la réalisation d'un "dictionnaire du Développement Local", la pertinence des méthodes terminologiques et de contribuer au développement de stratégies organisationnelles diversifiées, de modèles de structuration conceptuelle appropriés à la complexité et à l'interdisciplinarité des domaines de connaissances spécialisées
The principles of terminology theory and methodology underpin the shaping and description of knowledge fields and constitue the structuring support of terminography works. The methodology developped within the context of technology standardization has been mainly applied to the elaboration of terminologies in scientific and technical fields but seldom in other subject fields such as social sciences, administrative or economic activities. And yet, this methodology proves to be very useful for elaborating dictionaries in different knowlege fields, though adjustments are made to their specific characteristics. .
APA, Harvard, Vancouver, ISO, and other styles
14

Gac, Nicolas. "Adéquation Algorithme Architecture pour la reconstruction 3D en imagerie médicale TEP." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00330365.

Full text
Abstract:
L'amélioration constante de la résolution dynamique et temporelle des scanners et des méthodes de reconstruction en imagerie médicale, s'accompagne d'un besoin croissant en puissance de calcul. Les accélérations logicielles, algorithmiques et matérielles sont ainsi appelées à réduire le fossé technologique existant entre les systèmes d'acquisition et ceux de reconstruction.
Dans ce contexte, une architecture matérielle de rétroprojection 3D en Tomographie à Emission de Positons (TEP) est proposée. Afin de lever le verrou technologique constitué par la forte latence des mémoires externes de type SDRAM, la meilleure Adéquation Algorithme Architecture a été recherchée. Cette architecture a été implémentée sur un SoPC (System on Programmable Chip) et ses performances comparées à celles d'un PC, d'un serveur de calcul et d'une carte graphique. Associée à un module matériel de projection 3D, cette architecture permet de définir une paire matérielle de projection/rétroprojection et de constituer ainsi un système de reconstruction complet.
APA, Harvard, Vancouver, ISO, and other styles
15

Gac, Nicolas. "Adéquation algorithme architecture pour la reconstruction 3D en imagerie médicale TEP." Phd thesis, Grenoble INPG, 2008. http://www.theses.fr/2008INPG0061.

Full text
Abstract:
L'amélioration constante de la résolution dynamique et temporelle des scanners et des méthodes de reconstruction en imagerie médicale, s'accompagne d'un besoin croissant en puissance de calcul. Les accélérations logicielles, algorithmiques et matérielles sont ainsi appelées à réduire le fossé technologique existant entre les systèmes d'acquisition et ceux de reconstruction. Dans ce contexte, une architecture matérielle de rétroprojection 3D en Tomographie à Emission de Positons (TEP) est proposée. Afin de lever le verrou technologique constitué par la forte latence des mémoires externes de type SDRAM, la meilleure Adéquation Algorithme Architecture a été recherchée. Cette architecture a été implémentée sur un SoPC (System on Programmable Chip) et ses performances comparées à celles d'un PC, d'un serveur de calcul et d'une carte graphique. Associée à un module matériel de projection 3D, cette architecture permet de définir une paire matérielle de projection/rétroprojection et de constituer ainsi un système de reconstruction complet
The medical imaging improvements in spatial and temporal resolutions involve increasing needs in computational power. The software, algorithmic and hardware accelerations are called to reduce the current technologic gap existing between acquisition and reconstruction systems. In this context, a hardware architecture of 3D backprojection for Positron Emission Tomography (PET) is proposed. Thanks to an Algorithm Architecture Adequacy, our architecture overcomes successfully the limitations due to the latency of the external memory SDRAM like. It has been implemented on a SoPC (System on Programmable Chip) and its performances have been compared to the ones achieved by a desktop PC, a workstation and a graphic board. With an additional forward projector IP, a hardware pair of projection/backprojection can be build which allows the design of a complete reconstruction system
APA, Harvard, Vancouver, ISO, and other styles
16

Laurent, Christophe. "Adéquation algorithmes et architectures parallèles pour la reconstruction 3D en tomographie X." Phd thesis, Université Claude Bernard - Lyon I, 1996. http://tel.archives-ouvertes.fr/tel-00004999.

Full text
Abstract:
Le but de cette thèse est d'étudier l'adéquation des approches parallèles à l'imagerie 3D, en prenant comme problème cible de la reconstruction d'images 3D en tomographie par rayons X. L'évolution technologique des systèmes d'acquisition, du premier scanner au Morphomètre, a généré de nouvelles problématiques au niveau des méthodes de reconstruction et au niveau des besoins informatiques. Une première partie est consacrée aux fondements de la tomographie assistée par ordinateur et à la présentation des machines parallèles. L'évolution des machines de calcul intensif, du Cray 1 au Cray T3D, permet de résoudre des problèmes de taille croissante. Dans la deuxième partie, nous définissons la méthodologie suivie pour paralléliser les algorithmes de reconstruction. Nous identifions les opérateurs de base (projection et rétroprojection) sur lesquel est porté l'effort de parallélisation. Nous définissons deux approches de parallélisation (locale et globale). Différentes versions optimisées de ces algorithmes parallèles sont présentées prenant en compte d'une part la minimisation des temps de communications (recouvrement calcul/communication, communication sur un arbre binaire) et d'autre part la régulation de charge (partitionnement adaptatif). Dans la troisième partie, à partir de ces opérateurs parallélisés, nous construisons trois méthodes de reconstruction parallèles : une méthode analytique (la méthode de Feldkamp) et deux méthodes algébriques (la méthode Art par blocs et méthode SIRT). Les algorithmes sont expérimentés sur différentes machines parallèles : Maspar, Réseau de stations Sun, Ferme de processeurs Alpha, Paragon d'Intel, IBM SP1 et Cray T3D. Pour assurer la portabilité sur les différentes machines, nous avons utilisé PVM. Nous évaluons nos performances et nous montrons nos résultats de reconstruction 3D à partir de données simulées. Puis, nous présentons des reconstructions 3D effectués sur le Cray T3D, à partir de données expérimentales du Morphomètre, prototype de scanner X 3D.
APA, Harvard, Vancouver, ISO, and other styles
17

Joubert, Marianne. "Adéquation des blés durs aux opérations de transformations technologiques : semoulerie et pastification." Thesis, Montpellier, SupAgro, 2017. http://www.theses.fr/2017NSAM0045.

Full text
Abstract:
Le blé dur est la matière première de base pour la production de semoules et de pâtes. Les origines des rendements semouliers et qualité des pâtes sont multifactorielles. Or, il n’existe pas aujourd’hui d’outil global permettant de prédire les valeurs semoulières et pastières des blés durs sur la base des caractéristiques physiques et biochimiques des grains. Le travail mené dans le cadre de cette thèse s’attache à objectiver le potentiel semoulier et pastier de lots de grains, issus de pratiques culturales innovantes, dans une optique d’améliorer la durabilité de la filière blé dur.Des lots de grains de blé dur ont été caractérisés et leurs variabilités mises en relation avec les différents itinéraires techniques agricoles dont ils sont issus. L’impact de la qualité des récoltes sur le comportement à la mouture des lots, ainsi que sur l’aspect des pâtes sèches et la texture des pâtes cuites a été étudié. Les teneurs en protéines, en cendres et la granulométrie de la semoule ont été identifiées comme des facteurs influençant la qualité des pâtes. Une démarche « plan d’expériences » a été développée pour évaluer l’impact d’un seul facteur, indépendamment des deux autres, sur la qualité des pâtes. L’efficience des procédés de transformation en fonction de la variabilité de la matière première a également été appréciée. En particulier, l’impact des caractéristiques des grains de blé dur sur les énergies nécessaires à la mouture, les liens entre composition de la semoule et comportement à l’extrusion et l’efficacité de différents diagrammes de séchage sur la qualité des pâtes en fonction de leurs compositions, ont été analysés. Une étude a été également menée sur l’état de polymérisation des protéines au cours de la fabrication des pâtes. Enfin, cette thèse a permis la constitution d’une base de données qui contribuera à la prédiction de la qualité des semoules et pâtes en fonctions des caractéristiques physiques et biochimiques des blés durs
Durum wheat is the best raw material to process semolina and pasta. The origins of high semolina yield and the good pasta quality are multifactorial. However, there is currently no tool predicting milling and pasta making results based on physical and biochemical characteristics of durum wheat grains. The work carried out in this PhD thesis attempts to objectify the technological value of durum wheat samples, grown with innovative technical practices in order to improve sustainability of the French durum wheat chain.Durum wheat samples batches were characterised and their variability was related to the different agricultural technical routes used. The impact of the grain quality on the milling behaviour of the samples, as well as the appearance of the dry pasta and the texture of the cooked pasta was studied. Protein, ash contents and semolina particle size distribution were identified as factors influencing pasta quality. An “experimental design” approach was developed to obtain a non-distorted estimate of how each variable impacts the quality of pasta, independently of the other two variables. Efficiency of the semolina milling and pasta making processes depending on the variability of the raw material was also assessed. Especially, the impact of durum wheat grains characteristics on the energies required for milling, the relationship between semolina composition and extrusion behaviour and the effectiveness of different drying diagrams on the quality of the pasta based on their compositions were analysed. A study on the protein polymerisation state during the pasta making process was also conducted. Finally, this PhD thesis has contributed to the development of a database that will predict semolina and pasta quality depending on physical and biochemical characteristics of durum wheat
APA, Harvard, Vancouver, ISO, and other styles
18

Rouanet, Christine. "Contribution à l'identification structurale : adéquation d'un modèle mathématique à des résultats d'essais." Toulouse, ENSAE, 1987. http://www.theses.fr/1987ESAE0001.

Full text
Abstract:
Réalisation de logiciels de calcul destinés à identifier le comportement vibratoire de structures avion faiblement amorties et modélisées par éléments finis vis à vis des résultats d'essais. Différentes méthodes d'identification structurale sont développées. Deux méthodes de type identification paramétrique et une méthode de type recalage matriciel direct ont été mises en œuvre. Les résultats relatifs aux deux méthodes paramétriques ne se sont pas avérés satisfaisants, notamment du fait de problèmes d'ordre numérique. La méthode matricielle directe a donné des résultats encourageants et a pu être éprouvée sur des applications industrielles de type avion complet condensé.
APA, Harvard, Vancouver, ISO, and other styles
19

Le, Garrec Anne. "Adéquation d'un laser au pompage optique pour un magnétomètre à hélium 4." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10077.

Full text
Abstract:
Notre but etait d'ameliorer la resolution d'un magnetometre a pompage optique de l'helium 4. Pour ce faire, nous avons travaille suivant deux axes: l'etude des conditions d'amplification du signal et la reduction du bruit. Le laser etant actuellement la source limitant les performances du capteur, nous nous sommes principalement interesse a l'influence des parametres laser sur ces deux points. Suite a la possibilite d'utiliser quatre types de laser (laser solide lna et microcavite, laser a fibre dopee, diode laser dbr, un modele numerique permettant de calculer les signaux de resonance magnetique en fonction de l'intensite, la largeur spectrale et le nombre de modes du laser, a ete elabore. Nous avons pu determiner les caracteristiques les plus importantes et comparer la modelisation avec l'experience. Nous avons ensuite caracterise experimentalement les differents lasers en puissance emise, largeur de raie et longueur d'onde. Cependant, il convenait egalement de les caracteriser egalement en bruit d'amplitude et de longueur d'onde. Cette etude nous a permis de comprendre l'incidence des differentes sources de bruits laser (oscillations de relaxation, bruits quantique, thermique et accoustique) et de mettre en evidence de nombreux problemes pratiques tels que les retrodiffusions et les bruits d'alimentation. De ces divers resultats, il ressort que la diode dbr est le laser le plus adapte au pompage optique pour un magnetometre a helium 4. Une resolution voisine de 5 pt/(hz)#1#/#2 a ete obtenue, soit une performance equivalente a celle des capteurs rmn
APA, Harvard, Vancouver, ISO, and other styles
20

Ménard, Daniel. "Contribution à la conception de systèmes en virgule fixe." Habilitation à diriger des recherches, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00719431.

Full text
Abstract:
Mes activités de recherche se situent dans le domaine de l'implantation efficace d'applications de traitement du signal et de l'image (TDSI) au sein de systèmes embarqués. Face à la complexité grandissante des applications implantées au sein des systèmes embarqués, et face à la nécessité de réduire les temps de mise sur le marché, des méthodes et les outils associés sont nécessaires pour automatiser le processus d'implantation de ces applications sur des plateformes embarquées. A l'interface entre les phases de conception des algorithmes de TDSI et d'implantation au sein des systèmes embarqués, la conversion en virgule fixe reste une tache longue, fastidieuse et source d'erreurs. L'objectif de nos travaux de recherche est de proposer une méthodologie efficace de conversion automatique en virgule fixe et de développer les outils associés. De plus, la mise en œuvre de techniques permettant d'optimiser l'implantation d'applications au sein de systèmes embarqués a été étudiée. Plus particulièrement, les applications de communication numérique, les aspects énergétiques et la représentation optimisée des données en virgule fixe ont été considérés. Dans le processus de conversion en virgule fixe, l'évaluation des effets de la précision finie sur les performances de l'application est l'un des problèmes majeurs. Différents travaux de recherche ont permis de définir une approche analytique d'évaluation de la précision basée sur la théorie de la perturbation. Cette approche détermine l'expression de la puissance du bruit de quantification pour les systèmes composés d'opérations dont le modèle de bruit peut être linéarisé. Pour traiter les systèmes intégrant des opérations dont le modèle de bruit n'est pas linéaire, une approche mixte combinant simulation et méthodes analytiques a été proposée. Différentes contributions pour l'automatisation du processus de conversion en virgule fixe ont été proposées. Elles concernent l'évaluation de la dynamique à travers des approches stochastiques, l'optimisation de la largeur des données dans le cas de la synthèse d'architectures et la définition d'une approche hiérarchique pour traiter des systèmes complexes. Une infrastructure logicielle a été développée pour réaliser la conversion en virgule fixe et évaluer efficacement la précision des calculs. Différents travaux ont été conduits sur l'implantation d'applications de communication numérique au sein de systèmes embarqués et sur la génération de blocs matériels dédiés. De plus, le concept d'adaptation dynamique de la précision a été proposé et une architecture reconfigurable et flexible, supportant l'ADP, a été développée.
APA, Harvard, Vancouver, ISO, and other styles
21

Massamba, Victoire. "L’adéquation de la prescription d’antidépresseurs chez les personnes âgées qui consultent dans les services de médecine générale." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9569.

Full text
Abstract:
Le traitement de la dépression repose principalement sur la prescription d’antidépresseurs chez les personnes âgées. Au Canada, l’adéquation de la prescription d’antidépresseurs dans la population des personnes âgées est peu étudiée. En médecine générale, près de la moitié des personnes âgées ayant une dépression ne reçoivent pas une prescription appropriée d’antidépresseurs. Le but de ce mémoire était (1) : déterminer la proportion des personnes âgées qui reçoivent une prescription d’antidépresseurs selon les recommandations cliniques canadiennes et (2) identifier les facteurs liés au patient et à l’organisation des services susceptibles d’influencer la prescription adéquate d’antidépresseurs chez les personnes âgées qui consultent dans les services de médecine générale. Pour répondre à cet objectif, une étude a été réalisée à partir des données de l'enquête transversale (ESA- services) sur la santé des aînés et l'utilisation des services de santé menée auprès de 1811 personnes âgées de 65 ans et plus qui consultaient dans les services de médecine générale au Québec entre 2011-2013. Près de 20 % de ces personnes, couvertes par le régime public d’assurance médicaments de la Régie d’assurance maladie du Québec avaient une prescription d’antidépresseurs. L’échantillon de cette étude incluait des personnes ayant reçu une prescription d’antidépresseurs pendant au moins 90 jours. En fonction des recommandations cliniques canadiennes, l’adéquation de la prescription d’antidépresseurs a été mesurée à l’aide de 3 critères : la dose adéquate, la durée adéquate et le suivi médical adéquat dans la phase aigüe du traitement. Nos résultats indiquent que 44 % des personnes ont reçu une prescription adéquate d’antidépresseurs selon les 3 critères. En utilisant les régressions multivariées pour examiner les facteurs pouvant expliquer la probabilité de recevoir une prescription adéquate d’antidépresseurs en contrôlant pour l’âge, le sexe, l'état matrimonial, le revenu, la scolarité, aucune de ces variables n'était associée à la probabilité de recevoir une prescription adéquate d’antidépresseurs. Toutefois, lorsque l’on examine l’adéquation de la prescription d’antidépresseurs au niveau de chacun des critères, les résultats de notre étude ont montré que les hommes et les personnes qui vivent en milieu urbain et métropolitain sont moins susceptibles de recevoir une dose adéquate d’antidépresseurs et que la détresse psychologique modérée à sévère était associée à la probabilité d’avoir un suivi adéquat. Aucun des facteurs organisationnels n’était associé à la prescription adéquate d’antidépresseurs.
APA, Harvard, Vancouver, ISO, and other styles
22

Lehilali, Mohamed. "Formation du personnel paramédical et emploi : quelle adéquation dans le systeme sanitaire marocain?" Lyon 2, 1991. http://www.theses.fr/1991LYO20005.

Full text
Abstract:
Si l'on considère la ressource humaine comme une des richesses d'un pays, un des facteurs de son développement, il est logique de la voir entretenue, développée, faite objet de soins. L'observation du dispositif sanitaire et son évolution indique les efforts consentis pour gérer la santé de la population et révèle l'option privilégiée en matière de soins : médecine préventive et ou médecine curative. Le choix de l'une ou l'autre des options détermine les moyens en équipements et en hommes. Le personnel paramédical est un élément de base dans une politique de médecine préventive qui devrait prévaloir dans un pays tel le Maroc. L'examen de la formation de ce personnel renseigne sur le type de réponse apportée dans ce pays aux besoins de santé, sur l'adéquation des ressources et leurs emplois et enfin, sur la logique du système sanitaire dans son ensemble
If one considers human resources as one of the sources of wealth of a country, one of the factors of its development, it is only logical to see it maintained, developed and made the object of care and attention. The observation of a health plan and its evolution point to the efforts agreed upon in order to administer the health of a population and, bring to light the option that has been favoured as far as health care is concerned: preventive medicine and or curative medicine. The choice of one or the other option will determine both the type of equipment and the staff. The paramedical staff is one of the rudiments of a policy of preventive medicine which should prevail in a country like morocco. The examining of the training of this staff will give information about the type of solution decided upon regarding the health needs in this country, it will also give information about the appropriateness of these resources and how they are to be used, and lastly, about the logic of the health system as a whole
APA, Harvard, Vancouver, ISO, and other styles
23

Engoian, Alda. "La réforme électrique russe : adéquation entre l'environnement institutionnel et les arrangements institutionnels sectoriels." Paris, EHESS, 2010. http://www.theses.fr/2010EHES0051.

Full text
Abstract:
La réforme électrique russe est étudiée au travers d'une grille de lecture néo-institutionnelle qui permet de déterminer l'adéquation des paramètres de la réforme au contexte institutionnel et aux impératifs de la transition. Cette approche a permis de mettre en lumière la nature organique et historiquement située du changement économique, invalidant ainsi l'hypothèse de l'universalité intemporelle des postulats de l'économie standard et remettant en cause la pertinence de certaines bases théoriques de la libéralisation de l'industrie électrique. Les nouvelles règles du jeu, «greffées» sous une pression idéologique extérieure par le biais d'entrepreneurs politiques domestiques, n'ont pas permis de produire de l'efficacité économique escomptée, ni de bâtir un optimum social en cohérence avec les impératifs du développement global d'une Russie en transformation systémique majeure. L'analyse a conduit à conclure sur l'incompatibilité des arrangements institutionnels sectoriels nouveaux avec l'environnement institutionnel existant. Au-delà de ce constat, circonscrit au périmètre de la réforme électrique russe, les différentes crises électriques de ces dernières années, en Russie comme ailleurs, conduisent à s'interroger sur la validité du cadre théorique de la restructuration du secteur électrique
The neo-institutional reading of the Russian electricity liberalisation reform enables a determination whether the reform parameters are adequate to the institutional context and to the requirements of the transition. This approach puts into the limelight the organic nature and the historical context of the economic transformation, thereby invalidating the hypothesis of the timeless universality of traditional economic assumptions. The analysis also casts doubts on the validity of certain proffered theoretical rationales for the liberalisation of Russia's electricity industry. An analysis of the origin of this reform informs conclusions on the incompatibility of the new sectoral institutional arrangements with the existing institutional environment. Beyond such conclusions on the Russian electricity reform itself, the various electricity crises of the past few years, in Russia and elsewhere, cast doubts on the theoretical validity of the restructuring of the electricity sector more generally
APA, Harvard, Vancouver, ISO, and other styles
24

Gacougnolle, Jean-François. "Adéquation des activités d'éducation physique et sportive pour les jeunes apprentis : analyse descriptive." Thèse, Université du Québec à Trois-Rivières, 2004. http://depot-e.uqtr.ca/1156/1/000119580.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Michel, Pauline. "Simulateurs de conduite et adéquation architecture / modèles : impact sur le « mal du simulateur »." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPAST173.

Full text
Abstract:
E « mal du simulateur », qui s’apparente jusqu’à un certain point au mal des transports, est particulièrement problématique. La compréhension des causes du mal du simulateur et l'identification de procédés pour réduire l’occurrence de ce dernier sont des enjeux importants dans la mesure où elle introduit un biais double dans les résultats acquis : la population étudiée est filtrée « à la porte » et où le conducteur qui souffre de mal du simulateur risque d’avoir des comportements de conduite altérés.L'hypothèse que nous défendons dans le cadre de cette thèse concerne la relation entre « contrôlabilité » du système (le simulateur) et mal du simulateur. En simulation de conduite, le conducteur fait partie intégrante de la boucle : il initie les mouvements et reçoit les réponses du système. Notre hypothèse est que, dans ce cadre, un mauvais contrôle du déplacement du véhicule simulé induit des déplacements erratiques, perçus par le conducteur comme ne correspondant pas à ses attentes (du fait de son expérience de conduite antérieure) et donc non-acceptables.Pour tester cette hypothèse, nous avons repensé les modalités d’interfaçage conducteur/simulateur d’un simulateur de conduite moto préexistant : architecture matérielle et logicielle, structure capteurs/actionneurs de la colonne de direction, modèle de véhicule implémenté. Le simulateur, dans sa version actuelle, permet un meilleur degré de contrôlabilité par le conducteur pour des vitesses de déplacement moyennes à hautes
“Simulator sickness,” which is to some extent similar to motion sickness, is particularly problematic. Understanding the causes of simulator sickness and identifying ways to reduce its occurrence are important issues insofar as, on the one hand, the “at the door” filtering of the population studied on the simulator (people who are not susceptible) introduces bias in the results acquired and, on the other hand, a driver who suffers from simulator sickness is likely to behave differently in terms of their driving, which also introduces bias.The hypothesis we defend in this thesis concerns the relationship between the "controllability" of the system (the simulator) and simulator sickness.In driving simulation, the driver is an integral part of the loop: they initiate the movements and receive the system responses. Our hypothesis is that, in this context, a poor control of the simulated vehicle movement induces erratic movements, perceived by the driver as not corresponding to their expectations (because of their previous driving experience) and therefore unacceptable.To evaluate this hypothesis, we have redesigned the rider/simulator interfacing modalities of a pre- existing motorcycle simulator: hardware and software architecture, sensor/actuator structure of the steering column, and implemented vehicle model. In its current version, the simulator allows a higher degree of controllability by the driver for medium to high speeds
APA, Harvard, Vancouver, ISO, and other styles
26

Raulet, Mickaël. "Optimisations Mémoire dans la méthodologie « Adéquation Algorithme Architecture » pour Code Embarqué sur Architectures Parallèles." Phd thesis, INSA de Rennes, 2006. http://tel.archives-ouvertes.fr/tel-00124276.

Full text
Abstract:
Dans le domaine de l'électronique embarquée, les applications de communications numériques et de traitement d'images imposent des contraintes de temps très fortes tout en admettant une limitation en ressources et performances des unités de traitement. La restriction quant à la mémoire utilisable peut être préjudiciable pour des domaines tels que le codage vidéo. Une solution pour atteindre les objectifs d'implantation temps-réel peut passer par une distribution sur une architecture matérielle parallèle. Cette problématique constitue le cadre de ces travaux. Plus précisément, il s'agit de développer un processus de prototypage rapide dédié aux architectures parallèles à base de plusieurs processeurs de traitement numérique du signal de dernière génération (FPGA, DSP). L'aspect optimisation du point de vue de la mémoire allouée est abordé ici de manière plus précise.
La chaîne de prototypage a été élaborée autour de SynDEx, outil développé à l'INRIA basé sur la méthodologie AAA. Cette dernière vise à améliorer l'implantation d'un algorithme sur une architecture multi-processeurs en déterminant une distribution et ordonnancement optimaux. SynDEx réalise la phase d'adéquation proprement dite, et génère un exécutif indépendant de la cible. Nous avons dans un premier temps contribué à l'automatisation du processus sur cible multi-processeurs, en rajoutant d'une couche fonctionnelle, et en développant de nouveaux noyaux spécifiques pour des processeurs de traitement numérique du signal.
Dans un contexte embarqué, nos préoccupations se sont ensuite penchées sur la minimisation de la mémoire pour le code généré. C'est un problème encore très ouvert pour des architectures multi-composants. La solution trouvée, grâce aux algorithmes de coloriage de graphe, aboutit à une amélioration significative des résultats d'implantation distribuée. Le portage vers des plates-formes multi-composants est aujourd'hui automatique, notamment en intégrant directement dans l'outil SynDEx l'optimisation mémoire.
Une autre partie importante de ces travaux a concerné le développement et l'intégration, à travers notre processus de prototypage, d'applications conséquentes dans les domaines du traitement des images (MPEG-4, LAR) et celui des télécommunications (MC-CDMA, UMTS). Les résultats obtenus valident l'ensemble du processus proposé, et démontrent son adaptation à des systèmes globalement orientés traitement de l'information. Le mémoire se conclut en ouvrant sur de nouvelles perspectives, en s'intéressant notamment à des systèmes multi-couches réunissant des couches « transport » de télécommunication numériques et des couches « services » de traitement des images.
APA, Harvard, Vancouver, ISO, and other styles
27

Ferré, Paul. "Adéquation algorithme-architecture de réseaux de neurones à spikes pour les architectures matérielles massivement parallèles." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30318/document.

Full text
Abstract:
Cette dernière décennie a donné lieu à la réémergence des méthodes d'apprentissage machine basées sur les réseaux de neurones formels sous le nom d'apprentissage profond. Bien que ces méthodes aient permis des avancées majeures dans le domaine de l'apprentissage machine, plusieurs obstacles à la possibilité d'industrialiser ces méthodes persistent, notamment la nécessité de collecter et d'étiqueter une très grande quantité de données ainsi que la puissance de calcul nécessaire pour effectuer l'apprentissage et l'inférence avec ce type de réseau neuronal. Dans cette thèse, nous proposons d'étudier l'adéquation entre des algorithmes d'inférence et d'apprentissage issus des réseaux de neurones biologiques pour des architectures matérielles massivement parallèles. Nous montrons avec trois contributions que de telles adéquations permettent d'accélérer drastiquement les temps de calculs inhérents au réseaux de neurones. Dans notre premier axe, nous réalisons l'étude d'adéquation du moteur BCVision de Brainchip SAS pour les plate-formes GPU. Nous proposons également l'introduction d'une architecture hiérarchique basée sur des cellules complexes. Nous montrons que l'adéquation pour GPU accélère les traitements par un facteur sept, tandis que l'architecture hiérarchique atteint un facteur mille. La deuxième contribution présente trois algorithmes de propagation de décharges neuronales adaptés aux architectures parallèles. Nous réalisons une étude complète des modèles computationels de ces algorithmes, permettant de sélectionner ou de concevoir un système matériel adapté aux paramètres du réseau souhaité. Dans notre troisième axe nous présentons une méthode pour appliquer la règle Spike-Timing-Dependent-Plasticity à des données images afin d'apprendre de manière non-supervisée des représentations visuelles. Nous montrons que notre approche permet l'apprentissage d'une hiérarchie de représentations pertinente pour des problématiques de classification d'images, tout en nécessitant dix fois moins de données que les autres approches de la littérature
The last decade has seen the re-emergence of machine learning methods based on formal neural networks under the name of deep learning. Although these methods have enabled a major breakthrough in machine learning, several obstacles to the possibility of industrializing these methods persist, notably the need to collect and label a very large amount of data as well as the computing power necessary to perform learning and inference with this type of neural network. In this thesis, we propose to study the adequacy between inference and learning algorithms derived from biological neural networks and massively parallel hardware architectures. We show with three contribution that such adequacy drastically accelerates computation times inherent to neural networks. In our first axis, we study the adequacy of the BCVision software engine developed by Brainchip SAS for GPU platforms. We also propose the introduction of a coarse-to-fine architecture based on complex cells. We show that GPU portage accelerates processing by a factor of seven, while the coarse-to-fine architecture reaches a factor of one thousand. The second contribution presents three algorithms for spike propagation adapted to parallel architectures. We study exhaustively the computational models of these algorithms, allowing the selection or design of the hardware system adapted to the parameters of the desired network. In our third axis we present a method to apply the Spike-Timing-Dependent-Plasticity rule to image data in order to learn visual representations in an unsupervised manner. We show that our approach allows the effective learning a hierarchy of representations relevant to image classification issues, while requiring ten times less data than other approaches in the literature
APA, Harvard, Vancouver, ISO, and other styles
28

Mamalet, Franck. "Adéquation algorithme-architecture pour les réseaux de neurones à convolution : application à l'analyse de visages embarquée." Thesis, Lyon, INSA, 2011. http://www.theses.fr/2011ISAL0068.

Full text
Abstract:
La prolifération des capteurs d'images dans de nombreux appareils électroniques, et l'évolution des capacités de traitements à proximité de ces capteurs ouvrent un champ d'exploration pour l'implantation et l'optimisation d'algorithmes complexes de traitement d'images afin de proposer des systèmes de vision artificielle embarquée. Ces travaux s'inscrivent dans la problématique dite d'adéquation algorithme-architecture (A3). Ils portent sur une classe d'algorithmes appelée réseau de neurones à convolutions (ConvNet) et ses applications en analyse de visages embarquée. La chaîne d'analyse de visages, introduite par Garcia et al., a été choisie d'une part pour ses performances en taux de détection/reconnaissance au niveau de l'état de l'art, et d'autre part pour son caractère homogène reposant sur des ConvNets. La première contribution de ces travaux porte sur une étude d'adéquation de cette chaîne d'analyse de visages aux processeurs embarqués. Nous proposons plusieurs adaptations algorithmiques des ConvNets, et montrons que celles-ci permettent d'obtenir des facteurs d'accélération importants (jusqu'à 700) sur un processeur embarqué pour mobile, sans dégradation des performances en taux de détection/reconnaissance. Nous présentons ensuite une étude des capacités de parallélisation des ConvNets, au travers des travaux de thèse de N. Farrugia. Une exploration "gros-grain" du parallélisme des ConvNets, suivie d'une étude de l'ordonnancement interne des processeurs élémentaires, conduisent à une architecture parallèle paramétrable, capable de détecter des visages à plus de 10 images VGA par seconde sur FPGA. Nous proposons enfin une extension de ces études à la phase d'apprentissage de ces réseaux de neurones. Nous étudions des restrictions de l'espace des hypothèses d'apprentissage, et montrons, sur un cas d'application, que les capacités d'apprentissage des ConvNets ne sont pas dégradées, et que le temps d'apprentissage peut être réduit jusqu'à un facteur cinq
Proliferation of image sensors in many electronic devices, and increasing processing capabilities of such sensors, open a field of exploration for the implementation and optimization of complex image processing algorithms in order to provide embedded vision systems. This work is a contribution in the research domain of algorithm-architecture matching. It focuses on a class of algorithms called convolution neural network (ConvNet) and its applications in embedded facial analysis. The facial analysis framework, introduced by Garcia et al., was chosen for its state of the art performances in detection/recognition, and also for its homogeneity based on ConvNets. The first contribution of this work deals with an adequacy study of this facial analysis framework with embedded processors. We propose several algorithmic adaptations of ConvNets, and show that they can lead to significant speedup factors (up to 700) on an embedded processor for mobile phone, without performance degradation. We then present a study of ConvNets parallelization capabilities, through N. Farrugia's PhD work. A coarse-grain parallelism exploration of ConvNets, followed by study of internal scheduling of elementary processors, lead to a parameterized parallel architecture on FPGA, able to detect faces at more than 10 VGA frames per second. Finally, we propose an extension of these studies to the learning phase of neural networks. We analyze several hypothesis space restrictions for ConvNets, and show, on a case study, that classification rate performances are almost the same with a training time divided by up to five
APA, Harvard, Vancouver, ISO, and other styles
29

Cheikh-Yassine, Mohammad-Malek. "Méthodes et outils pour une meilleure adéquation"programmation-conception"dans un contexte de C. A. O. -bâtiment." Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0085.

Full text
Abstract:
Notre travail a pour objectif l'étude de méthodes et d'outils pour une recherche de meilleure adéquation : "Programmation - Conception" dans le domaine du bâtiment d'habitation collectif. Le but est d'apporter une aide au maître d'ouvrage afin de constituer le Programme et au concepteur pour élaborer l'Avant Projet Sommaire en relation aussi bonne que possible avec le programme. Ces outils ont pour rôle de faciliter le dialogue entre les intervenants de l'opération à ce stade de conception et ce en assurant les moyens de communication entre eux pour arriver à une meilleure gestion du projet et contribuer à l'amélioration du rapport Qualité/Prix dès ce stade d'étude. La proposition de résolution, que nous faisons, s'appuie sur des méthodes d'évaluation de la qualité et des prix du bâtiment en intégrant le principe de la gestion de la qualité dans le contexte de la conception assistée par ordinateur en bâtiment. Notre étude commence par la présentation des concepts généraux de la gestion de la qualité et des notions essentielles de la problématique des études de programmation et de conception de bâtiment. Ensuite, nous présentons les méthodes d'évaluation de la qualité sur lesquelles s'appuie le contenu du Programme. Enfin, nous décrivons nos éléments de réponse au problème posé, par le cahier des charges d'un système informatique portant et organisant les outils proposés
[The objective of this research is to find a better "Programming - Design" balance in the field of collective habitation buildings. The aim is to help the work planners to constitute the program and the designer to elaborate the preliminary project summary in a reasonable accordance with the program. The role of these tools is to facilitate the dialogue between the operation intervener's during the Design stage. By ensuring the means of communication, a better project management and quality/cost ratio can be guaranteed as early as this stage. The resolution propositions presented in this thesis are based on quality evaluation methods and building costs. The quality management principles are integrated in the computer aided design context. The study start with a presentation of the general quality management concepts as well as the essential notions of programming studies and building concepts. Then, the quality evaluation methods - on which are based the program contents - are presented. Finally, the answer elements for the posed problem are described through the specifications of a data processing system handling and organising the proposed tools]
APA, Harvard, Vancouver, ISO, and other styles
30

Nadji, Mounia. "Adéquation de la dynamique de véhicule à la géométrie des virages routiers : apport à la sécurité routière." Lyon, INSA, 2007. http://theses.insa-lyon.fr/publication/2007ISAL0014/these.pdf.

Full text
Abstract:
La perte de contrôle en virage représente une proportion significative des accidents par sortie de route. Ce travail apporte des outils et des recommandations pour prévenir ces accidents. Nous avons développé un modèle numérique de dynamique de véhicule qui tient compte des caractéristiques de la route. Ce modèle est validé par des données d’itinéraires réels et par des comparaisons au logiciel de simulateur professionnel de dynamique de véhicule callas. Après une analyse des modèles de contact pneumatique/chaussées, une modélisation basée sur le frottement de coulomb est réalisée. D’une part cette modélisation calcule les efforts de contact d’une façon correcte. La comparaison avec Pacejka dans différentes situations a montré la validité du modèle. D’une autre part, elle indique des limites de saturations des efforts. Ces points de saturation représentent des points potentiellement dangereux d’un itinéraire. A la base de la saturation des efforts et la connaissance des points dangereux, nous avons proposé une méthodologie de détection de limite. L’application de la méthodologie sur des itinéraires dangereux choisis dans la base de donnée VANI a permis de détecter d’une façon exacte des positions, effectivement dangereuses. Enfin, nous avons formulé des recommandations aux ingénieurs routiers pour utiliser les outils afin de redimensionner les routes et prévenir les accidents
The loss of control incurves represents a significant proportion of the accidents by exit of road. This work brings tools and recommendations to prevent these accidents. We developed a model of dynamic of vehicle, which takes into account the characteristics of the road, this model is validated by real road data by comparisons with callas professional simulator of vehicle dynamics. After an analysis of the pneumatic models contact, a modeling based on the friction of coulomb is carried out. This modeling calculates the contact efforts in a correct way. The comparison with PACEJKA in various situations showed the validity of the model. On another hand, it indicates limits of saturation of the efforts. These points of saturation represent dangerous points of trajectory. At the base of the saturation of the efforts and the knowledge of the dangerous points, we propose a methodology of limits detection. The application of methodology on real dangerous road chosen in of VANI database made possible to detect exactly the dangerous positions. Lastly, we made recommendations to road engineers to use these tools in order to prevent accidents
APA, Harvard, Vancouver, ISO, and other styles
31

Graba, Tarik. "Etude d'une architecture de traitement pour un capteur intégré de vision 3D." Paris 6, 2006. http://www.theses.fr/2006PA066531.

Full text
Abstract:
Cette thèse porte sur l'étude d'une architecture pour la vision en 3D dans un capteur intégré. L'évolution des technologies et de la densité d'intégration des circuits électroniques permet d'envisager de nouveaux systèmes intégrés capables de réaliser l'acquisition, le traitement et la transmission de données. Grâce à cette évolution nous avons envisagé la réalisation d'un capteur actif de vision 3D intégré. Ce capteur de vision active a pour fonction la restitution du relief en repoussant les limites des systèmes existants. Ceci permet d'entrevoir de nouvelles applications où la taille, la précision, les temps de traitement ou la consommation électrique sont des contraintes fortes. Nous proposons dans ce manuscrit, la structure globale du capteur, une méthode pour la reconstruction du relief, une architecture pour une exécution efficace de cette méthode ainsi que la réalisation d'un démonstrateur permettant de valider expérimentalement les concepts présentés
This thesis relates to the study of an architecture for active 3D vision in an integrated sensor. Electronic circuits technology evolution and the integration level growth allows the design of new integrated systems able to acquire, process and transmit data. This led us to consider the design of an integrated active 3D vision sensor. This sensor overcomes the limitations of the existing systems and thus, allows the emergence of new applications where size, precision, processing times or power consumption are strong constraints. In this manuscript, we have proposed a global scheme for the sensor, a method for depth reconstruction and a processing architecture. We have also presented the realization of a prototype to validate experimentally the presented concepts
APA, Harvard, Vancouver, ISO, and other styles
32

Arbaoui, Abdelaziz. "Aide à la décision pour la définition d'un système éolien : adéquation au site et à un réseau faible." Phd thesis, Paris, ENSAM, 2006. http://pastel.archives-ouvertes.fr/pastel-00002722.

Full text
Abstract:
Nous présentons une méthode d'aide à la décision pour la définition d'un système éolien qui prend en compte les composants du système, les spécificités du vent et du réseau de distribution proche du site. La démarche globale utilisée permet, par l'utilisation des outils de l'analyse fonctionnelle et par l'analyse des flux fonctionnels, de mettre en place des modèles utiles pour l'aide à la décision en définition préliminaire d'un système éolien. L'ensemble complet de solutions est déterminé par un moteur d'inférence CSP (Constraint Satisfaction Problem) qui recherche la satisfaction de toutes les contraintes. La capacité intrinsèque d'un modèle à produire une aide à la décision en conception préliminaire est estimée au travers des quatre caractéristiques suivantes : la parcimonie, l'exactitude, la précision et la spécialisation du modèle. Le modèle global intègre des connaissances issues du fabricant, du distributeur et de l'investisseur pour calculer les critères qui permettent de discriminer les alternatives de conception. Une alternative est définie par un site (vent et réseau) et une architecture du système éolien (7 variables de conception). Les critères, nécessaires à la prise de décision, calculés sont : le coût du kWh produit, la quantité de l'énergie produite, le coût total actualisé du projet. Concernant la connexion au réseau, nous avons pris en compte les variations lentes de la tension et le phénomène de Flickers. Nous avons cherché, en premier lieu, à déterminer le taux maximal de pénétration de la production éolienne dans un réseau de distribution donné. En deuxième lieu, nous avons examiné deux alternatives de solution pour l'amélioration de l'intégration des systèmes éoliens dans les réseaux de distribution, c'est-à-dire l'intégration d'un système du contrôle de la puissance réactive et l'intégration d'un système de stockage inertiel. La solution du stockage inertiel malgré un avantage lié au service système semble être plus coûteuse que le contrôle de la puissance réactive pour cette application. Nous avons montré l'intérêt de l'intégration des spécificités du site d'implantation dans le processus de prise de décision au travers d'une application sur trois sites différents (un site méditerranéen, et deux du nord de l'Europe). Les gains obtenus sur le coût du kWh sont importants pour les sites méditerranéens et la plupart des variables de conception influencent fortement ce coût. L'étude a également montré la possibilité d'adapter les choix technologiques au contexte du réseau dans le site. Le taux de pénétration peut être augmenté considérablement pour les sites dont le rapport X/R est grand en utilisant des systèmes à vitesse variable.
APA, Harvard, Vancouver, ISO, and other styles
33

Porignon, Denis. "Adéquation des systèmes de santé de district en situation critique: expériences dans la région des Grands Lacs africains." Doctoral thesis, Universite Libre de Bruxelles, 2003. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211299.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Dion, Isabelle. "Matériaux constitutifs de ventricules cardiaques artificiels : choix, mise en œuvre, caractérisations mécaniques et physico-chimiques, biocompatibilité, adéquation fonctionnelle." Bordeaux 2, 1992. http://www.theses.fr/1992BOR28202.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Parera, Vincent. "L' adéquation du régime des aides publiques à la recherche et au développement technologique aux besoins de l' entreprise." Toulouse 1, 2002. http://www.theses.fr/2002TOU10020.

Full text
Abstract:
Aux limites du droit privé et du droit public et intégrant des considérations tant économiques que juridiques, la réglementation applicable aux aides publiques en général, relève d' une grande complexité d' analyse. Á travers principalement le droit communautaire de la concurrence, nous nous efforçons tout d' abord d' apporter une définition à la notion d' aide publique en posant certains critères communs et l' appliquons concrètement au domaine de la recherche-développement. Par la suite, notre étude se concentre sur le régime juridique communautaire applicable à de tels soutiens, qu'il s' agisse dans un premier temps de la spécificité des textes régissant la matière, que dans un second temps du contrôle communautaire et du contentieux pouvant résulter de l' octroi de tels soutiens publics
This thesis concerns the analysis of research and development state aid framework. Through Community's competition law, we will first analyse the definition of state aid and apply it to research and development sphere. In a second time, we will focus on legal framework applicable , regulations and laws used , and the EEC control and litigation with can result from it
APA, Harvard, Vancouver, ISO, and other styles
36

Loubier, Julie. "Les besoins des aînés atteints d'une maladie incurable recevant des services de soins palliatifs à domicile : perceptions et adéquation." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26153.

Full text
Abstract:
Cette recherche, de nature exploratoire et descriptive, a pour but de documenter les besoins des aînés atteints d’une maladie incurable et la réponse d’aide reçue par les services de soins palliatifs à domicile. Cette étude qualitative a permis de rencontrer huit participants dans le cadre d’une entrevue individuelle. L’analyse des données propose huit grands besoins, divisés en 20 sous-besoins. Il a été difficile d’établir une concordance entre certains des besoins exprimés et l’aide reçue par le service (CSSS), puisque la lourdeur des soins d’une maladie terminale et l’âge avancé entraîne inévitablement d’autres besoins. Cependant, il a été possible de montrer que certains besoins sont répondus, de documenter l’appréciation ainsi que certaines limites du programme de soins palliatifs à domicile, malgré un nombre resteint de participants. Quant aux besoins relevés comme étant non répondus, l’apport des connaissances techniques et relationnelles des travailleurs sociaux peut devenir la clé d’une intervention plus efficace en contexte de soins de fin de vie.
APA, Harvard, Vancouver, ISO, and other styles
37

Grolleau, Adeline. "Usage de médicaments à visée psychotrope en population générale : caractéristiques et adéquation avec le(s) diagnostic(s) psychiatrique(s)." Thesis, Bordeaux 2, 2010. http://www.theses.fr/2010BOR21752/document.

Full text
Abstract:
Les objectifs de ce travail étaient d’évaluer la prévalence vie entière des traitements à visée psychotrope et les caractéristiques associées à cet usage dont l’adéquation avec l’existence de troubles psychiatriques. Les travaux ont été réalisés à partir des données issues de l’enquête Santé Mentale en Population Générale sur un échantillon de 36 785 adultes représentatifs de la population générale française. Un tiers des sujets a rapporté avoir fait usage d’au moins un traitement psychotrope au cours de la vie. L’inadéquation diagnostic-traitement est retrouvée dans le sens « usage en l’absence de trouble psychiatrique » aussi bien que dans le sens « absence d’usage en présence de trouble identifié ». Ainsi, seul un tiers des sujets avec un diagnostic de trouble dépressif récurrent a fait usage d’un traitement antidépresseur ou thymorégulateur. Concernant l’utilisation de traitements alternatifs, seuls 1,3 % des personnes rapportent un usage de traitement homéopathique à visée psychotrope. Ces traitements sont principalement utilisés par des personnes présentant un trouble anxieux en association avec un traitement psychotrope conventionnel. Des études ultérieures documentant l’ensemble des traitements à visée psychotrope utilisé dans le traitement des symptômes psychiques permettraient d’affiner les résultats sur l’adéquation diagnostic-traitement et d’estimer le nombre de sujets évitant le recours aux traitements conventionnels par l’utilisation d’alternatives thérapeutiques
The aims of this work were to assess the lifetime prevalence of psychotropic drug use and the characteristics associated with use, particularly the congruence with psychiatric diagnoses. The studies were performed using the database from the survey Mental Health in the General Population including 36 785 persons representative of the French general population. One out of three subjects reported a lifetime use of psychotropic treatment. The non-congruence between diagnosis and psychotropic drug was observed in the pattern “use without psychiatric disorders” as well as in the pattern “no use with psychiatric disorders”. So, only one out of three persons with recurrent major depressive disorder reported having used an antidepressant or a mood stabilizer. Regarding complementary and alternative medicine use, only 1,3% of persons reported use of homeopathic treatment for psychiatric symptoms. These treatments were mainly used by persons with anxiety symptoms in association with conventional psychotropic drugs. Further studies assessing the all the treatments used for psychiatric symptoms would allow to refine the results on the congruence between diagnosis and psychotropic drug and to estimate the number of persons avoiding use of conventional psychotropic drugs by using complementary and alternative medicine
APA, Harvard, Vancouver, ISO, and other styles
38

Lefebvre, Thomas. "Exploration architecturale pour la conception d'un système sur puce de vision robotique, adéquation algorithme-architecture d'un système embarqué temps-réel." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00782081.

Full text
Abstract:
La problématique de cette thèse se tient à l'interface des domaines scientifiques de l'adéquation algorithme architecture, des systèmes de vision bio-inspirée en robotique mobile et du traitement d'images. Le but est de rendre un robot autonome dans son processus de perception visuelle, en intégrant au sein du robot cette tâche cognitive habituellement déportée sur un serveur de calcul distant. Pour atteindre cet objectif, l’approche de conception employée suit un processus d'adéquation algorithme architecture, où les différentes étapes de traitement d'images sont analysées minutieusement. Les traitements d'image sont modifiés et déployés sur une architecture embarquée de façon à respecter des contraintes d'exécution temps-réel imposées par le contexte robotique. La robotique mobile est un sujet de recherche académique qui s'appuie notamment sur des approches bio-mimétiques. La vision artificielle étudiée dans notre contexte emploie une approche bio-inspirée multirésolution, basée sur l'extraction et la mise en forme de zones caractéristiques de l'image. Du fait de la complexité de ces traitements et des nombreuses contraintes liées à l'autonomie du robot, le déploiement de ce système de vision nécessite une démarche rigoureuse et complète d'exploration architecturale logicielle et matérielle. Ce processus d'exploration de l'espace de conception est présenté dans cette thèse. Les résultats de cette exploration ont mené à la conception d'une architecture principalement composée d'accélérateurs matériels de traitements (IP) paramétrables et modulaires, qui sera déployée sur un circuit reconfigurable de type FPGA. Ces IP et le fonctionnement interne de chacun d'entre eux sont décrits dans le document. L'impact des paramètres architecturaux sur l'utilisation des ressources matérielles est étudié pour les traitements principaux. Le déploiement de la partie logicielle restante est présenté pour plusieurs plate-formes FPGA potentielles. Les performances obtenues pour cette solution architecturale sont enfin présentées. Ces résultats nous permettent aujourd'hui de conclure que la solution proposée permet d'embarquer le système de vision dans des robots mobiles en respectant les contraintes temps-réel qui sont imposées.
APA, Harvard, Vancouver, ISO, and other styles
39

Mourad, Mohammad. "Modélisation de la qualité des rejets urbains de temps de pluie : sensibilité aux données expériementales et adéquation aux besoins opérationnels." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0063/these.pdf.

Full text
Abstract:
L'objectif principal de ce travail est d'évaluer la sensibilité des modèles de calcul des flux polluants en réseaux d'assainissement et des résultats de leurs applications, aux données expérimentales utilisées pour le calage. L'approche adoptée est fondée sur une analyse statistique des résultats de calage et des simulations d'études de cas, obtenus avec des jeux de données de calage de tailles et de caractéristiques différentes, générés aléatoirement à partir d'un jeu de données relativement riche. Trois approches différentes de modélisation ont été étudiées : concentration caractéristique, concentration moyenne événementielle et approche détaillée. Pour les approches par concentration caractéristique et par concentration moyenne événementielle, les données pour trois polluants (DBO, DCO et MES) sur treize bassins versants ont été utilisées. Pour l'approche détaillée et pour les études de cas, seul le bassin versant du Marais à Paris a été étudié et uniquement pour les MES. Cette recherche a montré que, dans la pratique courante des gestionnaires des réseaux d'assainissement et des bureaux d'études, le nombre d'événements utilisés pour le calage est notablement insuffisant et qu'un effort particulier doit être fait pour disposer d'événements mesurés plus nombreux et de meilleure qualité. Concernant la concentration moyenne caractéristique, dans les cas les plus défavorables que nous avons étudiés, une centaine d'événements mesurés serait nécessaire pour atteindre un niveau d'incertitude de +/- 25 %. Les résultats des deux autres approches montrent qu'une vingtaine d'événements mesurés serait nécessaire pour avoir un modèle raisonnablement satisfaisant dans le cas de l'approche par concentration moyenne événementielle et la moitié pour l'approche détaillée. Les études de cas types nous ont permis de favoriser certaines approches de modélisation pour une étude et des conditions données. D'une part, nous avons trouvé que les approches simples sont avantageuses pour le calcul des masses rejetées sur le long terme et qu'elles le sont moins dans le dimensionnement des ouvrages de stockage et de traitement. D'autre part, l'utilisation de l'approche détaillée change significativement les dimensions des ouvrages de stockage et de traitement par rapport à un dimensionnement uniquement hydraulique
Stormwater quality simulation models are useful tools for the design and management of sewer systems. Modelling results can be sensitive to experimental data used for calibration. This sensitivity is examined for three modelling approaches of various complexities (site mean concentration approach, event mean concentration approach and build-up, washoff and transport modelling approach) applied to a dry detention pond design case study, accounting for the variability of calibration data and their effect on simulation results. Calibrated models with different calibration data sets were used to simulate three years of rainfall with different detention pond volumes. Annual pollutant load interception efficiencies were determined. Simulations results revealed i) that there is no advantage in using the EMC model compared to the SMC model and ii) that the BWT model resulted in higher design ratios than those given by the SMC/hydraulic approach. For both EMC and BWT models, using an increasing number n of events for calibration leads to narrower confidence intervals for the design ratios. It is crucial for design ratios to account for successive storm events in chronological order and to account for the maximum allowable flow to be transferred to the downstream WWTP
APA, Harvard, Vancouver, ISO, and other styles
40

Maamar, Manel. "Modélisation et optimisation bi-objectif et multi-période avec anticipation d’une place de marché de prospects Internet : adéquation offre/demande." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLC025/document.

Full text
Abstract:
Le travail que nous présentons dans cette thèse porte sur le problème d'affectation dans une place de marché de prospects Internet. Plus précisément, ce travail a pour ambition de répondre à la problématique de l'adéquation de l'offre et de la demande, dans un contexte caractérisé par des flux continus faisant évoluer en temps réel l'ensemble des offres disponibles et les demandes à satisfaire. Pour ce faire, nous proposons dans un premier temps un modèle mono-période qui optimise le problème d'affectation à un instant donné et en considérant une seule période de temps, tout en permettant la prise en compte instantanée des nouvelles offres et demandes et leur adéquation en temps réel. Ce modèle permet d'optimiser deux objectifs à savoir: la maximisation du chiffre d'affaires et la satisfaction des clients.Par la suite nous proposons d'étendre ce modèle sur plusieurs périodes de temps futures afin de prendre en compte l'aspect temps réel de l'activité de la place de marché et donc le fait que des flux continus font évoluer en temps réel l'ensemble des offres et des demandes. L'objectif étant de tirer profit de la connaissance concernant cette évolution, par le biais de l'intégration d'un modèle de prévision dans un modèle d'optimisation multi-période.Ainsi, nous proposons un modèle d'optimisation multi-période permettant d'envisager à un instant donné des affectations sur plusieurs périodes de temps futures afin de réaliser les meilleures affectations possibles. Aussi, nous proposons un modèle de prévision des nouveaux flux tout en considérant les caractéristiques du modèle d'optimisation multi-période.Construire un modèle de prévision nécessite de définir les données à prévoir avant d'envisager toute méthode de prévision. En d'autres termes, nous devons choisir les paramètres du modèle de prévision, à savoir: les données historiques appropriées, le pas de temps de la prévision ainsi que l'horizon de la prévision. Le défi consiste donc à définir les paramètres du modèle de prévision qui conviendront au fonctionnement du modèle de l'optimisation multi-période.Par ailleurs, une des caractéristiques de la place de marché est la temporalité de son système. Ainsi, nous proposons un algorithme assurant l'aspect temps réel et donc le fait que les affectations s'effectuent toutes les minutes. L'algorithme que nous proposons fonctionne de manière continue à longueur de journée en optimisant à chaque instant l'adéquation offre/demande de prospects Internet tout en considérant instantanément les flux continus de prospects Internet ainsi que la mise à jour régulière de la demande Enfin, pour mettre en évidence l'efficacité et les bénéfices que la place de marché peut en tirer par l'utilisation des modèles et de l'algorithme proposés, nous avons mené des tests et différentes expérimentations sur des données réelles. Ces tests nous ont permis de valider nos travaux et d'évaluer la qualité des résultats obtenus.L'objectif de ce travail est double, d'une part, donner un cadre solide et formel pour répondre à la problématique de la place de marché de prospects Internet. D'autre part, le cadre proposé devrait être aussi générique que possible afin de résoudre tout autre problème analogue à celui de la place de marché de prospects Internet
The work that we present in this thesis focuses on the assignment problem in a marketplace of Internet prospects. More precisely, this work aims to address the problem of matching offers and demands in a context characterized by a continuous flows. These latter evolve inreal time the set of available offers and demands to satisfy. To do this, we propose initially a mono-period model which optimizes the assignment problem at a given instant and taking into account asingle period of time while allowing the instantaneous consideration of new offers and demands and their adequacy in real time. This model considers two objectives to optimize, namely: maximization of turnover as well as clients satisfaction.Thereafter, we propose to extend this model over several future time periods in order to take into account the real time aspect of the marketplace activity and so the fact that a continuous flows evolve in real time the set of offers en demands. The objective is to take advantage of knowledge about this evolution, through the integration of a forecasting model in a multi-period optimization model. Thus,we propose a multi-period optimization model for considering at agiven instant assignments over several future time periods. Also, we propose a forecasting model for new flows while considering the characteristics of the multi-period optimization model.Building a forecasting model requires defining the data before considering any forecasting method. In other words, we have to choose the parameters of the forecasting model, namely the appropriate historical data, the forecasting time step and the forecasting horizon. The challenge is to define the parameters of the forecasting model which agree with the functioning the multi-period optimization model.Furthermore, a feature of the marketplace is the temporality of its system. Thus, we propose an algorithm ensuring real-time aspect and so the fact that assignments are made every minute. The proposed algorithm works continuously all day long while optimizing every instant the offer/demand adequacy of Internet prospects and instantly considering the continuous flux of Internet prospects as well as the regular updating demand. Finally, in order to show the efficiency and the benefits that the marketplace can reap by the use of the proposed models, we conducted tests and various experiments on real data. These tests have allowed us to validate the proposed models and evaluate the quality of the results.The aim is twofold, giving a strong and formal framework to address the issue of the marketplace of Internet prospects but also proposing a generic framework to solve any problem similar to that of the marketplace of Internet prospects
APA, Harvard, Vancouver, ISO, and other styles
41

Boulos, Vincent. "Adéquation Algorithme Architecture et modèle de programmation pour l'implémentation d'algorithmes de traitement du signal et de l'image sur cluster multi-GPU." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00876668.

Full text
Abstract:
Initialement con¸cu pour d'echarger le CPU des tˆaches de rendu graphique, le GPU estdevenu une architecture massivement parall'ele adapt'ee au traitement de donn'ees volumineuses.Alors qu'il occupe une part de march'e importante dans le Calcul Haute Performance, uned'emarche d'Ad'equation Algorithme Architecture est n'eanmoins requise pour impl'ementerefficacement un algorithme sur GPU.La contribution de cette th'ese est double. Dans un premier temps, nous pr'esentons legain significatif apport'e par l'impl'ementation optimis'ee d'un algorithme de granulom'etrie(l'ordre de grandeur passe de l'heure 'a la minute pour un volume de 10243 voxels). Un mod'eleanalytique permettant d''etablir les variations de performance de l'application de granulom'etriesur GPU a 'egalement 'et'e d'efini et pourrait ˆetre 'etendu 'a d'autres algorithmes r'eguliers.Dans un second temps, un outil facilitant le d'eploiement d'applications de Traitementdu Signal et de l'Image sur cluster multi-GPU a 'et'e d'evelopp'e. Pour cela, le champ d'actiondu programmeur est r'eduit au d'ecoupage du programme en tˆaches et 'a leur mapping sur les'el'ements de calcul (GPP ou GPU). L'am'elioration notable du d'ebit sortant d'une applicationstreaming de calcul de carte de saillence visuelle a d'emontr'e l'efficacit'e de notre outil pourl'impl'ementation d'une solution sur cluster multi-GPU. Afin de permettre un 'equilibrage decharge dynamique, une m'ethode de migration de tˆaches a 'egalement 'et'e incorpor'ee 'a l'outil.
APA, Harvard, Vancouver, ISO, and other styles
42

Schneider-Maunoury, Grégory. "Adéquation des sytèmes réglementaires et des stratégies d'entreprise dans la gestion des pollutions industrielles : une comparaison européenne : Pays-Bas, Allemagne, France." Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX32042.

Full text
Abstract:
L'objet de cette these est la relation entre l'entreprise et l'etat dans la gestion des pollutions industrielles. Dans une perspective contractuelle deduite de la theorie de l'agence, cette these permet de mettre en lumiere les mecanismes d'incitation et de controle des entreprises par l'etat et leur utilisation par les entreprises et d'elaborer un shema general d'evolution de ces relations vers une plus grande efficacite. A partir de ce modele conceptuel, une comparaison de trois systemes reglementaires (les covenants aux pays-bas, le systeme europeen de management environnemental en allemagne et l'auto-surveillance en france) a permis de montrer les avancees et les limites de ces mecanismes reglementaires et de leur application par les entreprises, et de proposer des ameliorations de leur fonctionnement par l'etat et par l'entreprise
The point of this dissertation is the relationship between firm and government in industrial pollution management. In a contractual perspective deducted from the agency theory this thesis enables to point out the incentive and control mechanisms of the firms by governments and their use by firms and to work out a general evolution scheme of these relationships towards a greater efficiency. From this conceptual model a comparison of three regulatory frameworks (covenant in the netherlands, emas in germany, "self-control" in france) has enabled to point out the strengthes and weaknesses of these frameworks and of their implementation in the firms and to suggest some improvements by the firm and by the government
APA, Harvard, Vancouver, ISO, and other styles
43

Christiaen, Pierre. "Contribution aux recherches en Adéquation Algorithme Architecture dans le cadre de la conception d'un suiveur de regard "tête libre" par caméra." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-81.pdf.

Full text
Abstract:
Ce travail présente la conception d'un suiveur de regard utilisable comme outil de désignation sur un poste de travail informatique, sans contraintes pour l'utilisateur. Le dispositif utilise comme information l'image vidéo d'une partie du visage comprenant au moins un il. Quatre sources lumineuses infra-rouges se reflètent sur la cornée et sont visibles sur l'image vidéo. L'analyse de l'image permet de définir la zone observée sur l'écran. La première partie du travail consiste a extraire de l'image les informations pupille et reflets ; nous avons élaboré un procédé permettant d'effectuer rapidement cette extraction sur l'image binarisée a partir d'une fenêtre glissante 3x2 pixels ; ce procédé fournit une liste chaînée et structurée ; cette liste contient autant de sous-listes qu'il y a de formes distinctes. Il est alors possible de repérer les informations liées a la pupille et aux reflets. La technique de reconnaissance de forme s'avère robuste, et le procédé ainsi élabore convient a un traitement automatique. Il convient également a un traitement hautement parallélise, ce qui est valide par sa représentation sous forme d'un graphe flot de donnée, au rythme de la ligne. La construction de la liste chaînée est indépendante du niveau de complexité de l'image. En conséquence, ce procédé supporte le temps réel. Un traitement classique permet de déterminer la zone de l'écran visée par l'il. Pour améliorer la précision de cette zone, nous avons introduit un dispositif de leds contrôlées sur le pourtour de l'écran ; nous pouvons ainsi asservir le système de repérage, de manière a compenser les mouvements de la tête. Nous atteignons ainsi une sensibilité de 1,5 cm sur écran
APA, Harvard, Vancouver, ISO, and other styles
44

Chéry, Jean-Pierre. "Modélisation d'un système spatial en zone frontalière franco-suisse : adéquation de la dynamique de système aux problèmes de la différenciation spatiale." Université Joseph Fourier (Grenoble ; 1971-2015), 1998. http://www.theses.fr/1998GRE10218.

Full text
Abstract:
Les effets de la frontiere franco-suisse, dans l'espace jurassien, contribuent a l'organisation de cellules transfrontalieres, marquees en particulier par le phenomene du travail frontalier. Les caracteristiques structurelles de cet espace, liees a des contraintes spatiales et a une variabilite de ce travail frontalier, expriment la dialectique de contact et de separation de la frontiere. Le processus de differenciation spatiale est ainsi fortement marque par la frontiere. Ce travail vise alors, dans le cadre des reflexions qui portent sur l'amenagement du territoire des espaces frontaliers en europe, a depasser les contradictions issues d'une lecture analytique de ce type d'espace, dans l'exemple jurassien. Le positionnement systemique est adopte. La cellule transfrontaliere entre pontarlier et yverdon est considere comme un systeme spatial dont la modelisation par la methode de la dynamique de systeme, permet d'integrer les principaux facteurs de la differenciation spatiale. L'integration d'un modele gravitaire et la simulation des flux entre les differentes zones de la cellule permettent une approche des interactions spatiales. L'analyse des boucles de retroaction est une perspective originale de la dynamique de systeme, dans l'approche de la complexite du systeme spatial et de sa differenciation. Les resultats de simulation concernent plusieurs scenarios qui testent la validite de la structure du modele. L'importance d'une integration de l'analyse spatiale, avec les systemes d'information geographique et alors soulignee, dans la perspective d'une liaison feconde avec de nouvelles methodologies de gestion territoriales.
APA, Harvard, Vancouver, ISO, and other styles
45

Cloutier, Jacinthe. "Adéquation du modèle de socialisation à la consommation appliquée au domaine de l'épargne et invariance selon le mode de collecte de données." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28438/28438.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Denoulet, Julien. "Architectures massivement parallèles de systèmes sur circuits (SoC) pour le traitement de flux vidéos." Paris 11, 2004. http://www.theses.fr/2004PA112223.

Full text
Abstract:
Cette these porte sur l'evolution d'une architecture simd massivement parallele, reconfigurable et partiellement asynchrone dediee a l'analyse d'images, la maille associative. Cette architecture est tiree d'un modele de calcul theorique appele reseaux associatifs, qui permet d'implementer de faÇon efficace un grand nombre d'algorithme de traitements d'images. Dans l'optique d'une integration materielle sur une plate-forme de type system on chip (soc), cette etude presente les diverses possibilites d'evolution de l'architecture, en evalue les couts materiels et les repercussions sur les performances du circuit, dans une problematique d'adequation algorithme architecture. Nous montrons qu'une reorganisation de la structure fondee sur la virtualisation de ses processeurs elementaires permet de reduire de faÇon substantielle la surface du circuit, et ouvre de nouvelles perspectives de calcul ou de gestion de la memoire. A l'aide d'un environnement de programmation et d'evaluation bati autour d'une bibliotheque de simulation des reseaux associatifs et d'une description parametrable de l'architecture en langage system c, nous montrons que la maille associative virtualisee permet de soutenir des cadences de traitement temps-reel pour un grand nombre d'algorithmes d'analyse d'images : operations de pretraitements (filtrage par convolution, operations statistiques ou de morphologie mathematique), segmentations par decoupe ou fusion de voronoï et ligne de partage des eaux, detection de mouvements par relaxation markovienne
This thesis describes the evolution of the associative mesh, a massively parallel simd architecture dedicated to image processing. This design is drawn from a theoretical model called associative nets, which implements a large number of image processing algorithms in an efficient way. In the prospect of a system on chip (soc) implementation of the associative mesh, this study presents the various possibilities of evolution for this architecture, and evaluates their consequences in terms of hardware costs and algorithmic performances. We show that a reorganisation of the structure based on the virtualisation of its elementary processors allows to reduce the design's area in substantial proportions, and opens new prospects in terms of calculation or memory management. Using an evaluation environment based on a programming library of associative nets and a parameterized description of the architecture using the system c language, we show that a virtualised associative mesh achieves real-time treatments for a great number of algorithms: low-level operations such as convolution filters, statistical statistical algorithms or mathematical morphology, and more complex treatments such as a split & merge segmentation, watershed segmentation, and motion detection using markovian relaxation
APA, Harvard, Vancouver, ISO, and other styles
47

de, Broucker Gatien. "La littératie en santé sur l’agenda public : Explorer l’émergence d’un problème social par sa teneur dramatique, sa nouveauté et son adéquation avec la culture dominante." Thesis, Université d'Ottawa / University of Ottawa, 2014. http://hdl.handle.net/10393/31452.

Full text
Abstract:
Développer la compréhension de la « littératie en santé » (ou « health literacy ») est devenu une préoccupation croissante pour les professionnels de la santé et les chercheurs en santé publique. Se définissant comme l’opérationnalisation, par l’entremise de mesures et de modèles, de la capacité des individus à obtenir, comprendre et utiliser de l’information pour prendre soin de leur santé, la littératie en santé est rapidement devenue un enjeu de santé publique à l'échelle internationale. La littératie en santé – comme domaine de recherche et comme enjeu de santé publique – progresse sur l’agenda public, grâce à la mobilisation et au travail de différents groupes d'acteurs qui interagissent dans le domaine de la santé publique et la médecine. En partie à cause de sa nature interdisciplinaire, la littératie en santé a engendré un bon nombre de définitions, apportant avec elles des perspectives très différentes sur la littératie en santé et sur les systèmes de santé eux-mêmes. Plusieurs études ont mis l'accent sur le développement d'un consensus autour de la définition, de la conceptualisation et de la mesure de la littératie en santé, essayant de créer une notion qui soit commune à tous les acteurs. Toutefois, peu nombreuses sont les études qui discutent des différentes perspectives des groupes d’acteurs, de manière à mettre en évidence autant les éléments de consensus que les points de divergence. Explorer les différentes idées qui s’expriment sur le rôle du patient et celui des professionnels de la santé, sur la manière de concevoir l’autonomie et « l’empowerment » et sur le développement d’une action publique enrichit notre compréhension de la littératie en santé. L’expression de points de vue opposés sur la littératie en santé, particulièrement entre les États-Unis et l’Europe, et la manière dont ces points de vue soutiennent le débat scientifique permettent de saisir la complexité du développement de ce concept ainsi que certains conflits d’idées qu’il révèle.
APA, Harvard, Vancouver, ISO, and other styles
48

Toquet, Dominique. "Le système-irrigation en Basse-Normandie : "Adéquation des ressources du cycle de l'eau aux besoins hydriques de la production végétale agricole par modélisation de l'irrigation"." Caen, 2000. http://www.theses.fr/2000CAEN1289.

Full text
Abstract:
La gestion de l'eau est une des questions d'importance de ce nouveau siècle. L’eau est l'élément vital pour les végétaux et quand la demande en eau est supérieure à l'offre, on parle alors de sécheresse, qui est définie comme étant un phénomène naturel grave d'ordre climatique caractérisé par un manque d'eau. La Basse-normandie connait de façon récurrente ce phénomène de sécheresse et celle-ci peut entrainer jusqu'a 20 % de perte pour le rendement de la production végétale agricole. Pour pallier à ces déficits hydriques, l'irrigation se développe et prend une place de plus en plus importante dans l'économie agricole régionale. Pratiquée de façon sensée, l'irrigation est une solution qui s'offre aux agriculteurs désireux d'améliorer la qualité et de diversifier leur production agricole, d'augmenter les rendements culturaux et de réduire les surfaces agricoles utilisées tout en dégageant des sources potentielles de bénéfices. Alors on peut considérer l'irrigation comme un système dont les éléments seraient au nombre de cinq : le climat, le sol, la ressource hydrologique, la plante et les méthodes d'arrosage. Modéliser l'irrigation consiste alors à élaborer un modèle d'aide à la gestion de l'irrigation qui permettrait de faciliter le calcul de l'estimation des besoins en eau et par conséquent de gérer de façon sensée les ressources en eau disponibles
APA, Harvard, Vancouver, ISO, and other styles
49

Crochet, Moïse. "Adéquation moteurs propres-carburants en combustion homogène : Étude expérimentale en machine à compression rapide et modélisation de carburants modèles types gazoles en milieu ultra-pauvre." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10127/document.

Full text
Abstract:
La cinétique d'oxydation, d'auto-inflammation et de combustion en milieu pauvre et ultra-pauvre de trois hydrocarbures types représentatifs du comportement des carburants gazoles pour automobiles a été étudiée à haute pression (0,34 - 2,32 MPa) et basse température (600 - 950 K) : le n-butylbenzène pour les constituants aromatiques, le n-propylcyclohexane pour les naphténiques et le n-décane pour les paraffiniques. Une base exhaustive de données thermocinétiques expérimentales et théoriques a été élaborée. Les expériences d'auto-inflammation ont été réalisées avec une machine à compression rapide originale équipée d'une chaîne analytique performante. Des données globales de réactivité - délais et phénoménologie de l'auto-inflammation - ainsi que des données détaillées - identification et quantification des produits intermédiaires d'oxydation - ont permis de reconnaître et d'interpréter les voies prépondérantes d'auto-inflammation et de formation de polluants à basse température. Des schémas réactionnels complexes sont construits. Des modèles thermocinétiques sont développés et validés par les données originales. Des simulations numériques ont permis de prévoir l'effet de la recirculation des gaz brûlés (EGR) et le comportement en phase de compression. Ces travaux font partie d'un programme de quatre thèses destinées à élaborer les outils d'une optimisation du mode de combustion moteur par auto-inflammation homogène (mode HCCI pour Homogeneous Charge Compression Ignition), une alternative propre et prometteuse aux procédés conventionnels mais qui exige une connaissance approfondie des conditions d'auto-inflammation du carburant à basses températures
The oxidation, autoignition and combustion of hydrocarbons were studied at high pressure (0,34 - 2,32 MPa) and low temperature (600 - 950 K) for lean and ultra-lean gas mixtures. Three hydrocarbons typical of the chemical structure of diesel fuel components were chosen: n-butylbenzene for the aromatics, n-propylcyclohexane for the naphtenes and n-decane for the paraffins. An exhaustive base of experimental and theoretical thermokinetic data has been built. Autoignition experiments were conducted in an original rapid compression machine fitted with efficient analytical attachments. Global and detailed data of reactivities were collected: autoignition delay times and phenomenology of the autoignitions, speciation and determination of oxidation intermediates. They allowed recognizing and interpreting the main reaction pathways leading to the low-temperature autoignition and pollutant formation. Complex reaction schemes and thermokinetic models were developed and validated with the new experimental data. Numerical simulations were done to predict the effect of the exhaust gas and compression phase. This work has been a part of a project of four theses to elaborate efficient tools to optimise the clean and attractive HCCI (Homogeneous Charge Compression Ignition) mode of combustion, which requires a deep understanding of the conditions of low-temperature autoignition
APA, Harvard, Vancouver, ISO, and other styles
50

Len-Ríos, Maria Elizabeth. "Communication rules and corporate online communication /." free to MU campus, to others for purchase, 2002. http://wwwlib.umi.com/cr/mo/fullcit?p3052191.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography