Dissertations / Theses on the topic 'Méthodologies et outils'

To see the other types of publications on this topic, follow the link: Méthodologies et outils.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodologies et outils.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kilian, Pascal. "Outils et méthodologies pour la chirurgie orthopédique assistée par ordinateur mini-invasive." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente une méthodologie innovante pour la navigation chirurgicale minimalement invasive (MIS) dans un cadre orthopédique. Trois applications cliniques finales valident les concepts étudiés dans chaque chapitre : les arthroplasties d’épaule, de hanche et de genou. Dans un premier temps, les techniques généralement mises en œuvre dans la chirurgie ouverte assistée par ordinateur sont présentées pour une indication originale, l’arthroplastie d’épaule. Cette chirurgie bien qu’ouverte, présente tous les défis d’une chirurgie MIS, offrant peu de zones anatomiques numérisables par le chirurgien. Pour résoudre ces problèmes d’accès, nous proposons l’utilisation d’un « palpeur » échographique, permettant un accès à des zones anatomiques plus étendues. Nous démontrons la faisabilité technique de celui-ci en proposant une chaîne de numérisation échographique complète basée sur l’utilisation d’une sonde échographique 7,5 MHz, associée aux techniques décrites de navigation. Les problèmes liés à l’utilisation peropératoire de la sonde, celui du calibrage spatial et des traitements d’images nécessaires sont résolus et validés. L’ensemble des solutions proposées permet d’envisager une utilisation semi-automatique du « palpeur » en routine clinique. Ce dernier est ensuite utilisé pour initialiser un modèle déformable, permettant d’obtenir une reconstruction patient-spécifique d’un genou distal sans utilisation d’imagerie préopératoire ionisante et compatible avec les exigences de la chirurgie MIS. Les travaux réalisés couvrent les différentes étapes du développement d’un projet de GMCAO, de la preuve de concept jusqu’à la première utilisation réelle sur patient
This thesis presents an innovative methodology for the navigated Minimally Invasive Surgery (MIS) in the frame of orthopedics. Three final clinical applications validate the concepts exposed in each chapter: shoulder, hip and knee replacement. Firstly, the most commonly used techniques in Computer Assisted Surgery (CAS) are described in the context of a not addressed indication: total shoulder replacement. Although this kind of surgery is “open”, it involves the same challenges than the MIS one, by offering to the surgeon only a few “digitizable” anatomical zones. In order to solve these access problems we develop an ultrasound-based digitizer probe, enabling a wider bone surface digitization. We prove its feasibility by providing a fully functional ultrasound digitization chain, based on a 7,5MHz usage, associated to the previously described navigation techniques. The issues linked to its preoperative usage, to its calibration and to the necessary image processing are solved and validated. The provided set of solutions lets foresee a semi-automatic usage of this US digitizer, in clinical routine. The latter is then used for the initialization of a deformable model, getting a patient-specific reconstruction of its distal knee, without using preoperative ionizing imaging, but compatible with the MIS constraints. The fulfilled work covers all stages of a classical development CAS project, from the proof-of-concept to a first usage on patients
2

Yengui, Firas. "Contribution aux méthodologies et outils d’aide à la conception de circuits analogiques." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0098/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A la différence de la conception numérique, la conception analogique souffre d’un réel retard au niveau de la solution logicielle qui permet une conception à la fois rapide et fiable. Le dimensionnement de circuits analogiques exige en effet un nombre assez élevé de simulations et de vérifications et dépend beaucoup de l’expertise du concepteur. Pour pallier à ce retard, des outils de conception automatique basés sur des algorithmes d’optimisation locale et globale sont développés. Ces outils restent encore immatures car ils n’offrent que des réponses partielles aux questions du dimensionnement, alors que l’obtention d’un dimensionnement optimal d’un circuit analogique en un temps raisonnable reste toujours un enjeu majeur. La réduction du temps de conception de circuits analogiques intégrés nécessite la mise en place de méthodologies permettant une conception systématique et automatisable sur certaines étapes. Dans le cadre de cette thèse, nous avons travaillé suivant trois approches. Il s’agit d’abord de l’approche méthodologique. A ce niveau nous préconisons une approche hiérarchique descendante « top-down ». Cette dernière consiste à partitionner le système à dimensionner en sous blocs de fonctions élémentaires dont les spécifications sont directement héritées des spécifications du niveau système. Ensuite, nous avons cherché à réduire le temps de conception à travers l’exploration de solutions optimales à l’aide des algorithmes hybrides. Nous avons cherché à profiter de la rapidité de la recherche globale et de la précision de la recherche locale. L’intérêt des algorithmes de recherche hybride réside dans le fait qu’ils permettent d’effectuer une exploration efficace de l’espace de conception du circuit sans avoir besoin d’une connaissance préalable d’un dimensionnement initial. Ce qui peut être très intéressant pour un concepteur débutant. Enfin, nous avons travaillé sur l’accélération du temps des simulations en proposant l’utilisation des méta-modèles. Ceux-ci présentent un temps de simulation beaucoup plus réduit que celui des simulations des modèles électriques. Les méta-modèles sont obtenus automatiquement depuis une extraction des résultats des simulations électriques
Contrary to digital design, analog design suffers from a real delay in the software solution that enables fast and reliable design. In this PhD, three approaches are proposed. The first is the methodological approach. At this level we recommend a "top-down" hierarchical approach. It consists of partitioning the system to size into sub-blocks of elementary functions whose specifications are directly inherited from the system level specification. Next, we aimed to reduce design time through the exploration of optimal solutions using hybrid algorithms. We attempted to take advantage of the rapid global search and local search accuracy. The interest of hybrid search algorithms is that they allow to conduct effective exploration of the design space of the circuit without the need for prior knowledge of an initial design. This can be very useful for a beginner designer. Finally, we worked on the acceleration of time simulations proposing the use of meta-models which present a more reduced time than electrical simulation models. Meta-models are obtained automatically from extracting results of electrical simulations
3

Saussard, Romain. "Méthodologies et outils de portage d’algorithmes de traitement d’images sur cibles hardware mixte." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS176/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les constructeurs automobiles proposent de plus en plus des systèmes d'aide à la conduite, en anglais Advanced Driver Assistance Systems (ADAS), utilisant des caméras et des algorithmes de traitement d'images. Pour embarquer des applications ADAS, les fondeurs proposent des architectures embarquées hétérogènes. Ces Systems-on-Chip (SoCs) intègrent sur la même puce plusieurs processeurs de différentes natures. Cependant, avec leur complexité croissante, il devient de plus en plus difficile pour un industriel automobile de choisir un SoC qui puisse exécuter une application ADAS donnée avec le respect des contraintes temps-réel. De plus le caractère hétérogène amène une nouvelle problématique : la répartition des charges de calcul entre les différents processeurs du même SoC.Pour répondre à cette problématique, nous avons défini au cours de cette thèse une méthodologie globale de l’analyse de l'embarquabilité d'algorithmes de traitement d'images pour une exécution temps-réel. Cette méthodologie permet d'estimer l'embarquabilité d'un algorithme de traitement d'images sur plusieurs SoCs hétérogènes en explorant automatiquement les différentes répartitions de charge de calcul possibles. Elle est basée sur trois contributions majeures : la modélisation d'un algorithme et ses contraintes temps-réel, la caractérisation d'un SoC hétérogène et une méthode de prédiction de performances multi-architecture
Car manufacturers increasingly provide Advanced Driver Assistance Systems (ADAS) based on cameras and image processing algorithms. To embed ADAS applications, semiconductor companies propose heterogeneous architectures. These Systems-on-Chip (SoCs) are composed of several processors with different capabilities on the same chip. However, with the increasing complexity of such systems, it becomes more and more difficult for an automotive actor to chose a SoC which can execute a given ADAS application while meeting real-time constraints. In addition, embedding algorithms on this type of hardware is not trivial: one needs to determine how to spread the computational load between the different processors, in others words the mapping of the computational load.In response to this issue, we defined during this thesis a global methodology to study the embeddability of image processing algorithms for real-time execution. This methodology predicts the embeddability of a given image processing algorithm on several heterogeneous SoCs by automatically exploring the possible mapping. It is based on three major contributions: the modeling of an algorithm and its real-time constraints, the characterization of a heterogeneous SoC, and a performance prediction approach which can address different types of architectures
4

Martin, Lionel. "Intégration du métier de la fonderie dans les processus de conception : méthodologies et outils associés." Phd thesis, Paris, ENSAM, 2006. http://pastel.archives-ouvertes.fr/pastel-00002137.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La plupart des entreprises de fonderie font de plus en plus appel à l'informatique pour faciliter la phase de conception du moule; toutefois son emploi est limité le plus souvent à la simulation de la coulée. L'objectif général est donc d'améliorer l'utilisation de l'outil informatique dans les processus de fonderie. Cette thèse présente l'analyse, faite à partir d'une étude de cas, des possibilités offertes par des logiciels actuels et, lors de leur utilisation, les différents modèles qu'il est nécessaire de générer. La structuration du processus de conception autour d'un support d'intégration produit/process et l'analyse de ces modèles servent de support à la réflexion pour la mise au point d'une méthodologie de conception intégrée en fonderie. Les lacunes actuelles du processus de conception sont identifiées: elles sont caractérisées notamment par des ruptures totales ou partielles de la chaîne numérique c'est-à-dire l'absence ou l'insuffisance de liens inter-modèles qui conduisent à des problèmes de maintien de cohérence globale et à des manques de réactivité lorsque des modifications doivent être apportées. Le cas particulier de l'étape de définition des systèmes d'alimentation (masselottage) est présenté. Pour répondre aux besoins importants de réactivité dans cette phase, une approche basée sur la mise en oeuvre d'outils de simulation rapide est proposée. Elle permet d'évaluer différentes solutions et donc optimiser les systèmes de remplissage et d'alimentation, améliorant ainsi la qualité de la pièce. La validation de cette approche par des outils métiers de simulation numérique est présentée. Une maquette informatique illustrant son intégration avec les outils de CAO du marché est également décrite.
5

Thollin, Benoit. "Outils et méthodologies de caractérisation électrothermique pour l'analyse des technologies d'interconnexion de l'électronique de puissance." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00824898.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'électronique de puissance et particulièrement les systèmes de conversions deviennent un enjeu majeur de la transition énergétique et de l'avenir des transports. Les contraintes technico-économiques liées aux nouvelles applications impliquent une augmentation des densités de puissance au sein des modules tout en limitant leur coût et en conservant une robustesse satisfaisante. Aujourd'hui, des solutions semblent émerger grâce à des structures innovantes associées aux composants grands gap et à l'intégration tridimensionnelle. Ces solutions apportent cependant un certain nombre de contraintes liées aux interconnexions électrothermomécaniques (ETM). L'augmentation des niveaux de température permis par les composants grands gap et l'attrait du refroidissement double face offert par les assemblages 3D augmentent de manière importante les contraintes thermomécaniques et causent des problèmes de fiabilité. C'est pourquoi de nouvelles interconnexions ETM sont développées pour s'adapter aux nouvelles contraintes et rendre possible ce saut technologique. Cependant les outils permettant la caractérisation thermique et électrique de ces nouvelles interconnexions restent à développer. Les travaux présentés dans ce mémoire se portent sur le développement et la mise au point d'outils de caractérisation des interconnexions dans des assemblages 3D. La difficulté d'obtenir la température du composant au sein du boîtier nous a poussé à explorer deux voies permettant d'estimer la température de jonction (TJ). Premièrement par l'implantation de capteurs de température et de tension au coeur d'un composant de puissance grâce la réalisation d'une puce de test spécifique. Et deuxièmement, par l'observation de la réponse en température de composants fonctionnels faisant appel à l'utilisation d'un paramètre électrique thermosensible (PTS) du composant. Les deux pistes explorées mettent à profit des solutions spécifiques innovantes pour permettre des caractérisations thermique et électrique fines des assemblages d'électronique de puissance.
6

Thollin, Benoît. "Outils et méthodologies de caractérisation électrothermique pour l'analyse des technologies d'interconnexion de l'électronique de puissance." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT005/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'électronique de puissance et particulièrement les systèmes de conversions deviennent un enjeu majeur de la transition énergétique et de l'avenir des transports. Les contraintes technico-économiques liées aux nouvelles applications impliquent une augmentation des densités de puissance au sein des modules tout en limitant leur coût et en conservant une robustesse satisfaisante. Aujourd'hui, des solutions semblent émerger grâce à des structures innovantes associées aux composants grands gap et à l'intégration tridimensionnelle. Ces solutions apportent cependant un certain nombre de contraintes liées aux interconnexions électrothermomécaniques (ETM). L'augmentation des niveaux de température permis par les composants grands gap et l'attrait du refroidissement double face offert par les assemblages 3D augmentent de manière importante les contraintes thermomécaniques et causent des problèmes de fiabilité. C'est pourquoi de nouvelles interconnexions ETM sont développées pour s'adapter aux nouvelles contraintes et rendre possible ce saut technologique. Cependant les outils permettant la caractérisation thermique et électrique de ces nouvelles interconnexions restent à développer. Les travaux présentés dans ce mémoire se portent sur le développement et la mise au point d'outils de caractérisation des interconnexions dans des assemblages 3D. La difficulté d'obtenir la température du composant au sein du boîtier nous a poussé à explorer deux voies permettant d'estimer la température de jonction (TJ). Premièrement par l'implantation de capteurs de température et de tension au coeur d'un composant de puissance grâce la réalisation d'une puce de test spécifique. Et deuxièmement, par l'observation de la réponse en température de composants fonctionnels faisant appel à l'utilisation d'un paramètre électrique thermosensible (PTS) du composant. Les deux pistes explorées mettent à profit des solutions spécifiques innovantes pour permettre des caractérisations thermique et électrique fines des assemblages d'électronique de puissance
Power electronic and particularly conversion systems are becoming a major challenge for the future of energetic and transport systems. Technical and economic constraints related to new applications lead to an increase of module power densities while reducing cost and maintaining a good robustness. Today, solutions seem to emerge from innovative structures associated to wide band-gap semiconductors and three-dimensional integration. These solutions lead to many constraints in electro-thermo-mechanical (ETM) interconnection field. Temperature level rises allowed by wide band-gap semiconductors and attractiveness of double sided cooling provide by the 3D assemblies have significantly increase thermo-mechanical stresses and cause reliability problems. This is why new ETM interconnections are developed to facing those difficulties and enable this technological gap. However, thermal and electrical interconnections characterization tools need to be develop. Works presented in this thesis focuses on the development of tools for new interconnections characterization adapted to 3D package. The difficulty of obtaining the temperature of the component within the package has led us to explore two ways to estimate the junction temperature (TJ). In a first hand we integrate temperature and voltage sensors inside a power component in a clean room process thanks to the achievement of a specific thermal test chip (TTC). And in a second hand, by observing the temperature response of functional components, using a temperature-sensitive electrical parameter (TSEP). The both paths explored take advantage of innovative specific solutions to allow precise thermal and electrical characterization of power electronic assemblies
7

Martinez, Martinez David. "Méthodologies et outils de synthèse pour des fonctions de filtrage chargées par des impédances complexes." Thesis, Limoges, 2019. http://www.theses.fr/2019LIMO0025/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème de l'adaptation d'impédance en ingénierie des hyper fréquences et en électronique en général consiste à minimiser la réflexion de la puissance qui doit être transmise, par un générateur, à une charge donnée dans une bande de fréquence. Les exigences d'adaptation et de filtrage dans les systèmes de communication classiques sont généralement satisfaites en utilisant un circuit d'adaptation suivi d'un filtre. Nous proposons ici de concevoir des filtres d'adaptation qui intègrent à la fois les exigences d'adaptation et de filtrage dans un seul appareil et augmentent ainsi l'efficacité globale et la compacité du système. Dans ce travail, le problème d'adaptation est formulé en introduisant un problème d'optimisation convexe dans le cadre établi par la théorie de d'adaptation de Fano et Youla. De ce contexte, au moyen de techniques modernes de programmation semi-définies non linéaires, un problème convexe, et donc avec une optimalité garantie, est obtenu. Enfin, pour démontrer les avantages fournis par la théorie développée au-delà de la synthèse de filtres avec des charges complexes variables en fréquence, nous examinons deux applications pratiques récurrentes dans la conception de ce type de dispositifs. Ces applications correspondent, d'une part, à l'adaptation d'un réseau d'antennes dans le but de maximiser l'efficacité du rayonnement, et, d'autre part, à la synthèse de multiplexeurs où chacun des filtres de canal est adapté au reste du dispositif, notamment les filtres correspondant aux autres canaux
The problem of impedance matching in electronics and particularly in RF engineering consists on minimising the reflection of the power that is to be transmitted, by a generator, to a given load within a frequency band. The matching and filtering requirements in classical communication systems are usually satisfied by using a matching circuit followed by a filter. We propose here to design matching filters that integrate both, matching and filtering requirements, in a single device and thereby increase the overall efficiency and compactness of the system. In this work, the matching problem is formulated by introducing convex optimisation on the framework established by the matching theory of Fano and Youla. As a result, by means of modern non-linear semi-definite programming techniques, a convex problem, and therefore with guaranteed optimality, is achieved. Finally, to demonstrate the advantages provided by the developed theory beyond the synthesis of filters with frequency varying loads, we consider two practical applications which are recurrent in the design of communication devices. These applications are, on the one hand, the matching of an array of antennas with the objective of maximizing the radiation efficiency, and on the other hand the synthesis of multiplexers where each of the channel filters is matched to the rest of the device, including the filters corresponding to the other channels
8

He, Jianguo. "Modélisation des flux d'informations liées aux outils coupants : développement de méthodologies et d'outils de gestion adaptés." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A l'heure où la qualité et trentabilité sont devenues les principaux buts de l'appareil de production, un intérêt croissant se manifeste pour la gestion des outils coupants (GOC). Elle apparaît comme une des clés permettant d'atteindre ces objectifs. Une méthodologie de GOC est développée dans ces travaux. L'étude contribue essentiellement : à l'analyse des activités relatives à la GOC et à la structuration de tous les éléments d'information nécessaires, à l'établissement du schéma fonctionnel de la base de données générique et d'un système de codification d'outils, à la modélisation de l'ensemble des tâches et des liaisons logiques de la GOC, à la simulation dynamique du flux des outils en considérant les lois qui régissent la destruction des outils, au développement de plusieurs stratégies de remplacement d'outil basées sur la nature stochastique de la durée de vie d'un outil et leur validation par la simulation, à l'élaboration d'un modèle de calcul technico-économique et à l'évaluation de la performance du système GOC, à l'aide à la mise en place de notre méthodologie et des outils de gestion dans les cas industriels
At a time when quality and profitability have become the main demands regarding the production apparatus, increasing interest has arisen for tool management, which appears as one of the major keys to achieve these goals. A tool management methodology has been developed in this paper. It mainly deals with : the analysis of all the activities linked with tool management and t he structuration of the necessary pieces of information, - the building up of the functional relationships between the database entities, as well as of a tool codification system, - the modelisation of the tasks and the Logical relations of tool management, - the dynamic tool flow simulation, taking the Laws into account , which describe tool failure probability, - the development of several tool replacement strategies based on the stochastic nature of tool lite and their validation through simulation, the elaboration of a basic module for technical and economie calculation and the output of which are indicators enabling the user to appraise the performance of the tool management system
9

Lacoma, Vincent. "Évaluation environnementale des procédés composites pour l'analyse multicritère des systèmes de production : méthodologies, outils et applications." Electronic Thesis or Diss., Ecole centrale de Nantes, 2023. http://www.theses.fr/2023ECDN0020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte actuel de transition environnementale, cette thèse vise à participer à la réduction des impacts environnementaux de la fabrication de pièces en composites, qui est un secteur en croissance depuis plusieurs années.Pour cela, une méthodologie d’analyse environnementale spécifique aux procédés composites est fondamentale pour développer et évaluer des stratégies de réduction des impacts environnementaux. Pour être applicables dans l’industrie, ces stratégies se doivent de respecter les impératifs techniques et économiques des entreprises. Pour réaliser des évaluations environnementales, la méthode standardisée d’Analyse de Cycle de Vie (ACV) peut être employée. Cependant, le caractère général de cette approche laisse des latitudes sur son application qui n’ont pour le moment pas fait l’objet d’un consensus de la part de la communauté scientifique dans le cas des procédés composites.Ces travaux de thèse proposent alors des précisions de chaque étape de la méthode ACV pour construire une modélisation des impacts environnementaux du procédé qui dépendent des paramètres, comme par exemple les températures de mise en forme et les efforts de consolidation. Une approche similaire est aussi développée pour l’évaluation d’indicateurs économique également fonction de ces paramètres. Des outils d’exploitation multicritères sont enfin proposés pour trouver des réponses à l’objectif de réduction des impacts environnementaux et du coût de fabrication tout en assurant la conformité au cahier des charges techniques des pièces produites. Dans ce mémoire, le cas du thermoformage-estampage de pièces en polysulfure de phénylène renforcées par des fibres de carbone (C/PPS) est étudié pour appuyer la construction et la présentation des méthodologies proposées
In the current context of environmental transition, this thesis aims to participate in the reduction of environmental impacts related manufacturing of composite parts, which has been a growing sector for several years. To this purpose,an environmental assessment methodology dedicated to composite manufacturing processes is fundamental to develop and evaluate strategies forreducing environmental impacts. To be applicable in the industry, these strategies must respect the technical and economic imperatives of companies.To carry out environmental assessments, the standardized Life Cycle Assessment (LCA) method can be used. However, the general nature of this approach leaves latitudes on its application which have not been yet the subject of a scientific consensus in the case of composite manufacturing.Thus, our work proposes details for each step of the LCA method to build a model of the environmental impacts of the manufacturing process which depend on its parameters, such as the forming temperatures and the consolidation efforts. A similar approach is also developed for the evaluation of economic indicators based on the same parameters. Finally, multi-criteria decision-making tools are offered to find solutions to the objective of reducing environmental impacts and manufacturing costs while ensuringc ompliance with the technical specifications of the parts produced. In this thesis, the case of thermostamping of polyphenylene sulfide reinforced with carbon fibres (C/PPS) parts is studied to support the construction and presentation of the proposed methodologies
10

Guillier, Romaric. "Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2009. http://tel.archives-ouvertes.fr/tel-00529664.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
11

Valois, Rosine. "Contribution de l'analyse électromagnétique et outils associés à la conception de modules de communications millimétriques et optoélectroniques." Limoges, 2005. https://aurore.unilim.fr/theses/nxfile/default/80036469-b07b-44a9-85bd-f90542e69534/blobholder:0/2005LIMO0049.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche présentés dans ce manuscrit s'inscrivent dans le cadre de deux projets de recherche multipartenaires. Le projet RNRT HEMERODE concerne le développement d'un couple de modules émission/réception d'une chaîne de transmission par liaison optique, longue distance et haut débit. Dans le cadre de ce projet, nous avons, d'une part, procédé par une approche pluridisciplinaire à l'optimisation des lignes micro-ondes de commande et du couplage RF-optique du modulateur électrooptique réalisé sur niobate de lithium, et d'autre part, nous avons, par une approche hybride couplant les lois de l'électromagnétique et des circuits, procédé à l'étude et à l'optimisation du packaging du module récepteur. Le projet PIDEA LOTTO a pour objectif la conception de modules d'émission et de réception pour des applications de télécommunications par liaisons hertziennes, de type MVDS et MWS. Ce projet nous a permis d'étudier des transitions génériques large bande et des solutions de filtrage passe bande millimétrique, en technologie multicouche LTCC. Des réalisations ont montré les bonnes performances de ces composants et ont mis en évidence les potentialités de cette technologie pour ce type d'application. Les études menées dans le cadre de ce travail varié ont tout particulièrement mis en évidence la contribution indispensable des approches électromagnétiques et hybrides, ainsi que des méthodologies associées, dès la phase de conception des dispositifs complexes par leurs géométries, leurs fonctions et leurs domaines d'applications.
12

Barbacanne, Marie-Aline. "Outils chimiques et méthodologies d'analyse des radicaux superoxyde et monoxyde d'azote : étude par RPE de la régulation du stress oxydant dans la paroi artérielle." Toulouse 3, 2000. http://www.theses.fr/2000TOU30149.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce memoire a ete d'etudier le role des radicaux oxygenes, monoxyde d'azote (no) et anion superoxyde (o 2 ), dans les processus redox cellulaires. Les methodologies utilisees ont ete basees principalement sur la resonance paramagnetique electronique (rpe) et le piegeage de spin. Des ligands organiques ont ete synthetises, caracterises puis appliques a la complexation du fer(ii) pour developper des piegeurs de spin specifiques de no. Leurs proprietes ont ete etudiees en milieu aqueux et ont permis de retenir les piegeurs les mieux adaptes pour l'etude des mecanismes de regulation de no sur des modeles biologiques. Un milieu minimum de survie cellulaire et les conditions de detection ont ete optimises pour detecter o 2 et no liberes par des cellules endotheliales en culture. Les piegeurs synthetises n'ont pas permis la detection de no. Par contre, la production de o 2 est maximale a postconfluence. Les performances de 3 techniques (absorption uv-visible et cytochrome c, fluorescence et hydroethidine, chimioluminescence et lucigenine) ont ete comparees a celles de la rpe pour la detection de o 2 libere par les cellules endotheliales. Cette etude a revele des artefacts et des problemes methodologiques relatifs a la sensibilite et la specificite des sondes pour 2 techniques : la detection de o 2 par spectrophotometrie uv-visible n'a pu etre observee que pour une concentration de 20 m en cytochrome c ; la lucigenine est une source artefactuelle de o 2 et ne devrait plus etre utilisee pour detecter et quantifier o 2 par chimioluminescence. Dans la paroi arterielle, l'endothelium est responsable de l'essentiel de la production extracellulaire de o 2 qui semble generee par une nad(p)h oxydase membranaire regulee par une proteine kinase c, independamment de la liberation concomitante de no. La methodologie rpe a contribue a montrer que l'oestradiol augmente la quantite de no, sans modifier sa production, en diminuant la production endotheliale extracellulaire de o 2.
13

Kebaili, Mejid. "Réflexions autour de la méthodologie de vérification des circuits multi-horloges : analyse qualitative et automatisation." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT064/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis plusieurs années, le marché des circuits intégrés numériques requiert des systèmes de plus en plus complexes dans un temps toujours plus réduit. Afin de répondre à ses deux exigences, les industriels de la conception font appel à des fournisseurs externes proposant des circuits fonctionnant sur des signaux d'horloge dédiés. Lorsque ces derniers communiquent entre eux, les horloges d'émission et de réception ne sont pas les mêmes, on parle de « Clock Domain Crossing » (CDC).Les CDC correspondent à des communications asynchrones et peuvent provoquer des dysfonctionnements critiques. Par ailleurs, ces problèmes étant intermittents et complexes à analyser, ils ne peuvent pas être exhaustivement vérifiés avec des méthodes telles que l’analyse de timing ou la simulation fonctionnelle. Avec l'augmentation du nombre de CDC dans les circuits, les industriels de la conception assistée par ordinateur (EDA) ont proposé des solutions logicielles spécialisées dans la vérification statique des CDC. Cependant, les circuits développés étant en constante évolution, les outils ne sont pas en mesure de s’adapter. Pour pallier ces problèmes, la vérification industrielle des CDC est basée sur la spécification de contraintes et d'exclusions par l'utilisateur. Ces actions, qui se substituent aux outils, peuvent masquer des bugs. De plus, l’effort humain requis par cette approche n’est pas compatible avec le temps alloué au développement de circuits industriels. Nous avons donc cherché à automatiser la vérification en proposant des solutions basées sur des propriétés formelles. Les travaux ont consisté à analyser les différentes techniques de conception et de vérification des CDC à travers l’évaluation des principaux outils du marché. A partir des résultats obtenus, nous avons formalisé les problèmes pratiques et proposé des modèles permettant d’obtenir des résultats exhaustifs automatiquement. Les essais ont été réalisés sur un sous-système à base de processeurs (CPUSS) développé chez STMicroelectronics. L'adoption de nos modèles permet une vérification complète des CPUSS de manière automatique ce qui est essentiel dans un environnement industriel compétitif. En effet, le nombre d’informations devant être spécifiées par l’utilisateur a été réduit de moitié pour chacun des outils évalués. Par ailleurs, ces travaux ont montré que l’axe de développement des outils CDC avec l’ajout de fonctionnalités telles que les flots hiérarchiques ou l’injection de fautes n’améliore pas la qualité de résultats. Une collaboration ayant été mise en place avec les principaux fournisseurs outils, certaines solutions seront probablement intégrées aux outils dans les années à venir
For several years now, the digital IC market has been requiring both more complex systems and reduced production times. In this context, the semiconductor chip maker companies call on external IP providers offering components working on dedicated clock signals. When these IPs communicate between them, the source and destination clocks are not the same, we talk about "Clock Domain Crossing" (CDC).CDC correspond to asynchronous communications and can cause critical failures. Furthermore, due to the complexity and the random nature of CDC issues, they can not be exhaustively checked with methods such as timing analysis or functional simulation. With the increase of CDC in the digital designs, EDA tools providers have developed software solutions dedicated to CDC static verification.Whereas, the designs are subject to continuous change, the verification tools are not able to be up to date. To resolve these practical issues, the CDC industrial verification is based on the specification of constraints and exclusions by the user. This manual flow, which replaces the tools, can mask bugs. Moreover, the human effort required by this approach is incompatible with the time allowed to industrial designs development.Our goal has been to automate the verification submitting solutions based on formal properties.The work consisted in the analysis of the different CDC design and verification approaches through the evaluation of main CDC checker tools. From the results obtained, we have formalized the practical problems and proposed models to obtain automatically exhaustive results. The tests have been performed on a processor-based subsystem (CPUSS) developed at STMicroelectronics.Adopting our models enables a complete checking of CPUSS in an automatic way, which is essential within a competitive industrial environment. Actually, the amount of information to be specified by the user has been reduced by half for each one of the evaluated tools. Otherwise, this work has shown that the development axis of the CDC tools despite the addition of functionalities such as hierarchical flows or fault injection, doesn’t improve the quality of results (QoR). Since a collaboration has been established with the main tool providers some solutions would probably be included into the tools over the coming years
14

Atienza, Eric. "Méthodologie et outils pour le dimensionnement." Grenoble INPG, 2003. http://www.theses.fr/2003INPG0050.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les équations mathématiques constituent un formalisme essentiel pour la science. Le dimensionnement doit pouvoir s'appuyer sur ce formalisme, et disposer d'une méthode performante. En se fondant sur une analyse de la place du dimensionnement au sein des entreprises, des outils existants et des méthodes de développement logiciels, cette thèse présente une méthodologie et une technologie à base de composants d'aide au dimensionnement automatisé en ingénierie. Quelques cas industriels de dimensionnement de dispositifs électromécaniques servent à illustrer la méthode utilisée ainsi que le traitement de modèles à l'aide d'équations différentielles et implicites. Les expériences menées au cours de ce travail conduisent à estimer que le dimensionnement, dans les services de conception, peut se faire à partir de modèles mathématiquement formalisés en utilisant cette méthodologie. La technologie développée semble mûre pour fournir l'aide adéquate.
15

Bonhomme, Sylvain. "Méthodologie et outils pour la conception d'un habitat intelligent." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2008. http://tel.archives-ouvertes.fr/tel-00292456.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La réalisation de systèmes complexes de mesures, de contrôle et de surveillance nécessite une méthodologie de conception rigoureuse et des outils adaptés pour aboutir à un système sans faute. La démarche méthodologique proposée vise à aider à la conception d'un système complexe dédié à la gestion intelligente du confort et à la sécurité des personnes au sein de l'habitat. Cette démarche s'intègre dans un processus d'Ingénierie Système et s'appuie sur les standards UML et SYSML, mais également sur le formalisme HiLes, développé par le LAAS et adapté à la conception de modèle commande, la vérification formelle et la simulation numérique. Ces travaux de thèse présentent les méthodes et les outils de conception préconisés pour un habitat intelligent intégrant les objectifs de confort et de sécurité. Deux expérimentations sont décrites utilisant une commande auto-adaptative basée sur l'apprentissage des habitudes des utilisateurs dans leur environnement de vie et implémentés sur site réel.
16

Roland, Michel. "Des outils conceptuels et méthodologiques pour la médecine générale." Doctoral thesis, Universite Libre de Bruxelles, 2006. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210869.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé

Cette thèse est le rassemblement, par blocs homogènes, de notes d’orientation, de présentations orales, de textes variés, rédigés pour des revues scientifiques, comme chapitres de livres, pour des colloques ou des congrès, pour divers décideurs politiques, des années 80 à ce jour.

Son but est de montrer leur cohérence avec un fil conducteur commun :le développement d’outils conceptuels et méthodologiques utiles pour la pratique de la médecine générale en particulier, pour le système de dispensation des soins plus globalement. L’impact espéré est une amélioration de la qualité des soins dispensés, à l’échelle individuelle (relation soignant/soigné) ou à l’échelle collective (système de santé).

Les différents blocs se succèdent dans l’ordre suivant :

q\
Doctorat en Sciences de la santé publique
info:eu-repo/semantics/nonPublished

17

Yriarte, Luc. "Modélisation et validation de robots autonomes : une méthodologie, des outils." Montpellier 2, 1997. http://www.theses.fr/1997MON20141.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de these definit un cadre methodologique pour la modelisation et la validation de robots. La methodologie repose sur la definition de plusieurs niveaux de modeles, allant des specifications abstraites jusqu'au test sur des donnees enregistrees lors d'essais du robot en mode reel. Des outils ont ete implementes pour servir de support a chaque niveau de modelisation, comprenant : - un modele generique (ontologie) de la robotique permettant de diriger la specification d'un robot, et de la traduire sous la forme d'une base prolog interrogeable. - une plate-forme de simulation permettant de construire un modele executable, generant a chaque simulation une trace des variables specifiees au niveau superieur. - des outils de reconnaissance de motifs temporels, destines a analyser les traces du robot, en simulation ou en mode reel. Des essais ont ete menes sur un robot de laboratoire, en vue d'illustrer la pertinence de la methode.
18

Marfisi-Schottman, Iza. "Méthodologie, modèles et outils pour la conception de Learning Games." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00762855.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les Serious Games sont des jeux vidéo qui n'ont pas pour objectif premier le divertissement et qui peuvent être utilisé pour l'enseignement. Pertinents dans de nombreux domaines d'éducation, ils posent pourtant des problèmes liés à leur création fastidieuse et coûteuse en moyens et en temps. Dans cette thèse, nous nous intéressons tout particulièrement aux Serious Games pour l'éducation, appelés Learning Games (LG) et plus particulièrement aux LG pour la formation continue pour les étudiants en école d'ingénieur. Tout d'abord, nous avons procédé à une étude des besoins concrets des créateurs de LG, ainsi qu'à un état de l'art des méthodologies et des outils existants. En premier lieu, ces recherches nous ont montré qu'il n'existait aucune solution adaptée pour faciliter la collaboration entre les différents concepteurs de LG, occupant des rôles complémentaires (expert du domaine, expert pédagogique, game designer...). Nos recherches mettent également en avant le besoin de modélisation et de représentation du scénario du LG pour aider les concepteurs à imaginer un LG qui soit à la fois ludique et attractif tout en gardant le fort potentiel éducatif indispensable à la formation. Pour répondre au premier besoin, nous proposons une méthodologie globale de création collaborative de LG, détaillant chaque tâche des acteurs ainsi que les outils mis à leur disposition. Pour répondre au deuxième besoin, nous proposons un modèle de scénarisation de LG qui représente d'un côté la structure pédagogique choisie par l'expert pédagogique et de l'autre côté la mise en scène ludique imaginée par le game designer. Pour réifier nos propositions, nous avons développé un environnement informatique d'aide à la conception, appelé LEGADEE (LEarning GAme DEsign Environment). LEGADEE guide chaque concepteur avec une " barre d'outils " adaptée à son rôle spécifique et qui propose également un système de validation qui analyse la création en cours. Enfin, nous avons imaginé un protocole d'évaluation pour valider notre environnement auteur ainsi que la méthodologie et le modèle proposés dans lequel nous comparons 24 scénarios de LG dont la moitié a été conçu avec LEGADEE et la moitié sans. Notre évaluation montre que l'utilisation de notre outil a tendance à améliorer certains critères qualité des LG. Elle montre aussi les limites de nos hypothèses et donne des pistes d'améliorations futures, tant sur LEGADEE que sur la méthode d'évaluation elle-même.
19

Marfisi-Schottman, Iza. "Méthodologie, modèles et outils pour la conception de Learning Games." Electronic Thesis or Diss., Lyon, INSA, 2012. http://www.theses.fr/2012ISAL0103.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les Serious Games sont des jeux vidéo qui n’ont pas pour objectif premier le divertissement et qui peuvent être utilisé pour l’enseignement. Pertinents dans de nombreux domaines d’éducation, ils posent pourtant des problèmes liés à leur création fastidieuse et coûteuse en moyens et en temps. Dans cette thèse, nous nous intéressons tout particulièrement aux Serious Games pour l’éducation, appelés Learning Games (LG) et plus particulièrement aux LG pour la formation continue pour les étudiants en école d’ingénieur. Tout d’abord, nous avons procédé à une étude des besoins concrets des créateurs de LG, ainsi qu’à un état de l’art des méthodologies et des outils existants. En premier lieu, ces recherches nous ont montré qu’il n’existait aucune solution adaptée pour faciliter la collaboration entre les différents concepteurs de LG, occupant des rôles complémentaires (expert du domaine, expert pédagogique, game designer…). Nos recherches mettent également en avant le besoin de modélisation et de représentation du scénario du LG pour aider les concepteurs à imaginer un LG qui soit à la fois ludique et attractif tout en gardant le fort potentiel éducatif indispensable à la formation. Pour répondre au premier besoin, nous proposons une méthodologie globale de création collaborative de LG, détaillant chaque tâche des acteurs ainsi que les outils mis à leur disposition. Pour répondre au deuxième besoin, nous proposons un modèle de scénarisation de LG qui représente d’un côté la structure pédagogique choisie par l’expert pédagogique et de l’autre côté la mise en scène ludique imaginée par le game designer. Pour réifier nos propositions, nous avons développé un environnement informatique d’aide à la conception, appelé LEGADEE (LEarning GAme DEsign Environment). LEGADEE guide chaque concepteur avec une « barre d’outils » adaptée à son rôle spécifique et qui propose également un système de validation qui analyse la création en cours. Enfin, nous avons imaginé un protocole d’évaluation pour valider notre environnement auteur ainsi que la méthodologie et le modèle proposés dans lequel nous comparons 24 scénarios de LG dont la moitié a été conçu avec LEGADEE et la moitié sans. Notre évaluation montre que l’utilisation de notre outil a tendance à améliorer certains critères qualité des LG. Elle montre aussi les limites de nos hypothèses et donne des pistes d’améliorations futures, tant sur LEGADEE que sur la méthode d’évaluation elle-même
Serious Games are computer games that are designed for a primary purpose other than pure entertainment and that can be used for teaching. Although they are relevant to many fields of education, their development remains very expensive and time consuming. In this thesis, we focus mainly on Learning Games (LGs), that is on Serious Games designed for educational purposes, and more specifically on LGs used for training students in engineering schools. The first part of the thesis is devoted to an analysis of the needs of those who create LGs and a state of the art in terms of methodologies and tools available. Our study shows the need to facilitate collaboration between the various actors, with complementary roles, involved in the development of a LG (domain expert, pedagogical expert, game designer ...). Our research also highlights the need for models and visual representations of the LG scenario to facilitate the design of LGs that are fun and attractive while still maintaining their educational values. To address the first need, we propose a global collaborative methodology for creating LGs in which we indentify the tasks assigned to each actor who is involved in the creation process and the tools available. To meet the second need identified by our preliminary study, we propose a LG scenario model that represents the educational structure chosen by the pedagogical expert and also the way this structure is integrated into a game scenario imagined by the game designer. To reify our proposals, we have developed an authoring environment called LEGADEE (LEarning Game DEsign Environment) that guides each designer with a "toolbar" adapted to his or her role and also provides a validation system that analyzes the ongoing creation. Lastly, we have designed an evaluation protocol to validate our authoring environment as well as the methodology and the models proposed during which we compare 24 LGs of which half were created with LEGADEE and half without. Our evaluation indicates that our tool tends to improve the quality of LGs at several levels. It also brings to light the limits of our work and provides guidance for future improvements of LEGADEE and the evaluation process itself
20

Deshayes, Laurent. "Méthodologie d'étude de la coupe : liaison entre Couple Outil Matière et Système Pièce Outil Machine." Lyon, INSA, 2003. http://www.theses.fr/2003ISAL0088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation de l'usinage doit actuellement être réalisée en considérant des méthodologies permettant de lier le Couple Outil Matière (COM) et le système Pièce Outil Machine (POM). Ces méthodologies sont basées sur des modèles physiques, et sur des résultats expérimentaux. Dans ce contexte les paramètres limites du COM en tournage conventionnel, en tournage dur et aussi lors de la coupe aux chocs sont étudiés. Une méthodologie pour déterminer la plage de la vitesse de coupe est établie. L'étude de l'influence de la vitesse de coupe sur les paramètres du COM a montré l'importance du phénomène de fissuration du copeau. La durée de vie est importante pour déterminer des coûts d'usinage. Il est très difficile d'établir une loi robuste. Il est absolument nécessaire de passer par l'expérience. Néanmoins, des valeurs moyennes des exposants de la loi d'usure (Taylor) peuvent utilisés une première approximation basé sur ces études expérimentales, les données nécessaires au métier de l'usineur sont analysées pour établir une méthodologie globale de construction d'un modèle d'information. L'étude est divisée en deux niveaux : le niveau des données basé sur la norme STEP, et le niveau sémantique basé sur les ontologies et PSL. Les grands standards internationaux sont considérés pour proposer une démarche consensuelle
The Machining modelling must be at present realized by considering methodologies allowmg to lmk the Couple Workpiece Tool (CWT) and the Machine-Tool-Workpiece (MTW) system. These methodologies are based on physical models, and on experimental results. In this context the CWT limit parameters COM in conventional turning, in hard bad turnind and also during sbock cutting are studied. A methodology to determine the cutting speed range is established. The tudy of the influence of the cutting speed on the CWT parameters showed the importance of the cbip fissuring phenomenon. The tool life time is important for determining manufacturing cost. It is very difficult to establish a robust law. It iS absolutely necessary to realize some experiments. Nevertheless, mean values of the Taylor's wear law exponents can be used in first estimation. Based on these experimental studies, the data necessary for manufacturers are analyzed to estahlish a global methodology for the construction of an information model. The study is divided into two levels: the data level based on the STEP standard, and the semantic level based on ontologies and PSL. The international standards are considered to propose a consensual method
21

Galland, Stéphane. "Méthodologie et outils pour la simulation multiagent dans des univers virtuels." Habilitation à diriger des recherches, Université de Franche-Comté, 2013. http://tel.archives-ouvertes.fr/tel-00936334.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation de la dynamique des piétons, des cyclistes et des conducteurs de véhicules est d'un grand intérêt théorique et pratique. Au cours des deux dernières décennies, la Recherche dans un large éventail de domaines tels que l'infographie, la physique, la robotique, les sciences sociales, la sécurité et les systèmes de formation a créé des simulations impliquant des individus de type hétérogènes. Deux grands types de simulation d'individus dans un univers virtuel peuvent généralement être distingués selon qu'elles cherchent à atteindre : un haut niveau de réalisme de comportement (simulation pour la sécurité ou les sciences sociales) ou une visualisation de haute qualité (productions de films, de jeux vidéos, d'outils de réalité virtuelle). Dans la première catégorie, les résultats de simulation sont généralement cohérents avec les observations réalisées sur la population réelle et peuvent servir de base à des études théoriques pour l'évaluation et la prévision du comportement des individus. Dans la seconde catégorie, les modèles de comportement ne sont pas la priorité et ne correspondent pas quantitativement au monde réel. Cependant, les individus sont des personnages en 3D entièrement animés et les utilisateurs de l'application peuvent avoir un degré élevé d'interaction avec les éléments de la simulation. Les recherches et les applications récentes tendent à unifier ces deux domaines, en particulier dans le domaine des systèmes de formation où les deux aspects sont nécessaires pour une formation efficace. Dans ce cadre, les systèmes multiagents sont utilisés pour modéliser les populations d'individus. Ils forment un paradigme prometteur pour la conception de logiciels complexes. En effet, ce paradigme propose de nouvelles stratégies pour analyser, concevoir et implémenter de tels systèmes. Les systèmes multiagents sont considérés comme des sociétés composées d'entités autonomes et indépendantes, appelées agents, qui interagissent en vue de résoudre un problème ou de réaliser collectivement une tâche. Les systèmes multiagents peuvent être considérés comme un outil viable pour la modélisation et la simulation de systèmes complexes, et notamment les systèmes de simulation d'individus dans un univers virtuel. Nous proposons un métamodèle organisationnel et holonique permettant de modéliser ces systèmes multiagents. L'approche organisationnelle permet de décomposer le système en unités comportementales appelées rôles. L'approche holonique permet de composer le système en un ensemble d'agents, eux-mêmes, pouvant être décomposés en un ensemble d'agents, et ainsi de suite. Ce métamodèle est utilisé comme la base de notre processus méthodologique, appelé ASPECS, qui guide les scientifiques et les experts d'un domaine dans la modélisation et la construction d'un modèle d'un SMA représentant un système complexe. Sur la base du métamodèle organisationnel et holonique, nous proposons des modèles d'environnement et de groupes d'individus constituant un système de grande échelle spatiale et avec une large population d'individus. Ces modèles sont utilisés pour la simulation d'individus et de foules dans des univers virtuels. L'une des particularités intéressantes de nos modèles est leur conception multiniveau. Nous proposons des modèles de décomposition hiérarchique dynamique pour l'environnement et pour la population. Durant le processus de simulation, il devient alors possible de sélectionner les niveaux permettant d'atteindre le meilleur compromis entre la qualité des résultats produits par la simulation et les performances de calculs pour obtenir ces résultats. Les modèles présentés dans ce mémoire ont été appliqués à la simulation de foule et de trafic dans le cadre de contrats de recherche dont certains sont abordés dans ce document : simulation du réseau urbain de bus de Belfort, simulation de foules dans un centre ville de Belfort, simulation du covoiturage dans les Flandres.
22

Lavric, Traian. "Methodologies and tools for expert knowledge sharing in manual assembly industries by using augmented reality." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour rester compétitifs, les secteurs manufacturiers doivent assurer une grande flexibilité au niveau de la production, un besoin mieux satisfait par des travailleurs qualifiés. Alors que la formation traditionnelle devient de plus en plus inefficace, trouver une meilleure façon de former les travailleurs novices devient une exigence critique. La littérature suggère que la réalité augmentée (RA), une technologie émergente proposée par l'industrie 4.0, peut répondre à cette question.Les avantages des outils de partage des connaissances basés sur la RA ont été démontrés dans divers domaines, y compris l'industrie, de la fabrication à la validation et à la maintenance. Cependant, malgré les progrès de la RA ces dernières années, aucune percée industrielle significative n'est à noter. Nous avons constaté que la plupart des systèmes RA sont élaborés et évalués dans des environnements contrôlés, sans l'implication des utilisateurs finaux.Guidés par les recommandations de la littérature, nous avons mené une étude de cas au long cours dans une usine d'assemblage manuel, afin d'identifier les besoins auxquels un système de formation en RA devrait répondre, pour adresser de manière optimale le secteur industriel considéré. De plus, nous avons mené une analyse approfondie de la représentation et de la transmission de l'information dans la RA, en ce qui concerne les implications cognitives et les efforts de création de contenu. Nous avons également exploré les paradigmes d'interaction homme-machine pour identifier les principes et les lignes directrices de conception pour l'élaboration d'un outil de RA dédié au contexte atelier. Nous avons constaté que la représentation visuelle de l'expertise d'assemblage en RA peut s'appuyer sur des éléments visuels peu coûteux, tandis qu'une conception centrée sur l'humain devrait être adoptée lors de l'élaboration du système, en privilégiant l'utilisabilité et l'utilité plutôt que la performance.Nous avons défini une représentation visuelle formalisée des opérations d'assemblage en RA, qui prend en compte les problématiques de création et soutient les performances de formation. Nous avons proposé une approche de création immersive qui permet de capturer son expertise d'assemblage in-situ, lors de l'assemblage. La création des instructions en RA est un processus en une étape, ne s'appuie pas sur des données existantes ou des services externes et ne nécessite pas d'expertise AR ou technique, de pré- ou post-traitement des données. Pendant la formation, les informations d'assemblage sont transmises en suivant le principe 2W1H, conçu pour guider les novices de manière naturelle et non intrusive, en minimisant les entrées de l'utilisateur et l'encombrement de l'interface utilisateur, et en visant à maximiser la compréhension et l'apprentissage.Nous avons évalué notre proposition en menant plusieurs études. La première a confirmé l'hypothèse selon laquelle des éléments visuels à faible coût enregistrés dans l'espace peuvent transmettre efficacement l'expertise d'assemblage manuel aux travailleurs novices dans une configuration industrielle. Les résultats de la deuxième étude ont soutenu l'hypothèse selon laquelle la valeur de la création d'instructions AR basées sur la CAO dans un contexte industriel similaire est discutable. Une dernière étude a prouvé que le système RA proposé, comprenant à la fois la procédure de création et de formation, peut être utilisé efficacement par des novices en quelques minutes. Dans l'ensemble, les résultats rapportés ont démontré la usabilité et l'efficacité de l'approche de formation en RA proposée, indiquant qu'une mise en œuvre de système similaire pourrait être adoptée avec succès dans les secteurs manufacturiers.Les travaux futurs devraient valider les résultats expérimentaux rapportés dans des évaluations industrielles à grande échelle et proposer des modules "intelligents pour mieux aider les novices pendant leur formation et optimiser la procédure de création
Abstract: To remain competitive in the ongoing industrial revolution (i.e., Industry 4.0), manufacturing sectors must ensure high flexibility at the production level, a need best addressed by skilled human workforce. As traditional training becomes increasingly inefficient, finding a better way of training novice workers becomes a critical requirement. Literature suggests that augmented reality (AR), an emerging technology proposed by Industry 4.0, can potentially address this concern.The benefits of AR-based knowledge sharing tools have been demonstrated in a variety of domains, including industry, from manufacturing to validation and maintenance. However, despite the progress of AR in recent years, no significant industrial breakthrough can be noted. We found that most AR systems are elaborated and evaluated under controlled settings, without the implication of the eventual end users. Guided by literature recommendations, we conducted a long-term case study in a manual assembly factory, to identify needs and expectations that an AR training system should meet, to optimally address the considered industrial sector.Further, we conducted an in-depth analysis on information representation and conveyance in AR, with respect to cognitive implications and content authoring efforts. We explored as well human-computer interaction paradigms to identify principles and design guidelines for elaborating an AR tool dedicated to the shop floor context. We found that the visual representation of the assembly expertise in AR can rely on spatially registered low-cost visual assets (i.e., text, photo, video, and predefined auxiliary data), while a human-centered design should be adopted during the elaboration of the AR system, prioritizing usability and usefulness rather than performance.We defined a formalized visual representation (i.e., 2W1H principle) of assembly operations in AR, that considers authoring concerns and supports training performance. We proposed an HMD-only immersive authoring that allows one to capture his assembly expertise in-situ, during the assembly itself. The authoring is a one-step process, does not rely on existing data or external services and does not require AR or technical expertise, pre- or post-processing of data. During training, the assembly information is conveyed via AR by following the 2W1H principle, designed to guide novice workers in a natural, non-intrusive manner, minimizing user input and UI clutter, and aiming to optimize comprehension and learning.We evaluated our proposal by conducting several experiments. The first, conducted on a real-world assembly workstation, confirmed the hypothesis that spatially registered low-cost visual assets can effectively convey manual assembly expertise to novice workers via AR in an industrial setup. The findings of the second experiment supported the assumption that the worthiness of authoring CAD-based AR instructions in similar industrial context is questionable. A final experiment proved that the proposed AR system, including both authoring and training procedures, can be used effectively by novices in a matter of minutes. The overall reported feedback demonstrated the usability and efficiency of the proposed AR training approach, indicating that a similar system implementation could be successfully adopted in shop floor environments.Future work should validate the reported experimental findings in large-scale industrial evaluations and propose reliable “intelligent” modules (e.g., assembly validation and feedback) to better assist novice workers during training and optimize the authoring procedure as well
23

Bargain, Mike. "Développement d'une méthodologie de traitement et de fusion d'informations multi-sources et multi-outils." Université de Marne-la-Vallée, 1997. http://www.theses.fr/1997MARN0015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les besoins croissants en matiere d'information a caractere decisionnel ont genere le developpement de nouvelles methodologies de traitement et d'analyse. L'objet de ces travaux de these porte sur la definition de methodologies de traitement et d'analyse appliquees a un cas concret scientifique, technique et industriel dans un contexte operationnel. Des contraintes liees aux nouveaux traits caracteristiques de l'information imposent d'une part d'integrer de facon complementaire des outils de recherche et de traitement statistiques et semantiques evolutifs et d'autre part de mettre en place des procedures permettant de prejuger de la qualite de la matiere premiere servant de base au traitement et a l'analyse. Cette seconde contrainte est en particulier liee a la diffusion planetaire de tout type d'information sans reelle validation. Une partie importante a donc ete consacree a proposer des solutions nouvelles permettant de conduire cette operation de validation des informations a travers l'analyse de leur origine. Celle-ci doit etre realisee a plusieurs niveaux. Cette operation d'aide a la validation a ete partiellement automatisee et integree dans un demonstrateur qui rassemble l'ensemble des elements constitutifs d'une station d'analyse a vocation decisionnelle. L'ensemble de ces travaux doit permettre de montrer l'interet d'integrer les resultats ponderes issus de differents analyseurs d'informations, dans le but de produire un renseignement fiable, prefigurant la mise en place de systemes plus evolues a connotation predictive
24

Assayad, Ismaël. "Méthodologie et outils pour la modélisation et l'analyse de performance des systèmes embarqués multiprocesseurs." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0165.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous présentons une framework pour la modélisation et l'analyse de performance des systèmes embarqués multiprocesseurs. Elle est constituée de composants modélisant du logiciel parallèle et du matériel multiprocesseur, et des outils pour la génération de code et l'analyse de performances. La méthodologie permet une analyse conjointe du logiciel et du matériel et rend ainsi possible la prédiction de l'impact du matériel sur les performances du logiciel ainsi que la capacité du matériel à s'adapter à de futurs services. Nous appliquons cette méthodologie pour analyser les performances de plusieurs implémentations de l'encodage vidéo MPEG-4 sur une plateforme multimédia, le réseau-sur-puce de Philips Wasabi/Cake, ainsi qu'une application de transmission de paquets IPv4 sur le réseau de processeurs Intel IXP2800. Les expériences effectuées prouvent que notre méthodologie passe à l'échelle et fournit des résultats de performances précis avec des vitesses de simulation rapides
We present a framework and tools for modelling and performance analysis of multiprocessor embedded systems. Our framework consists of component-based models for modelling parallel software and multiprocessor hardware, and tools for code generation and performance analysis. The framework allows jointly analyzing software and hardware performance rather than evaluating each one in isolation. This joint evaluation enables predicting the impact of hardware on software performance and the ability of hardware performance to accommodate future services at design time. We apply the framework for analyzing the performance of several implementations of a MPEG-4 video encoding on custom multimedia hardware, Philips Wasabi/Cake NoC, and IPv4 packet forwarding over the Intel dual IXP2800 NP. The experiments carried out on these real-life industrial-size applications show that our framework is scalable and delivers precise performance results with fast simulation speed
25

Michel, Fabien. "Formalisme, outils et éléments méthodologiques pour la modélisation et la simulation multi-agents." Montpellier 2, 2004. http://www.theses.fr/2004MON20210.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Raddadi, Mohammed. "Élaboration de DCN multiaxes ouvert, évolutif : méthodologie et application." Nancy 1, 1992. http://www.theses.fr/1992NAN10030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude a pour objet la modélisation et la conception d'un directeur de commande numérique (D. C. N. ) que nous qualifierons d'ouvert. Cette ouverture est de deux types: ouverture sur l'environnement (communication d'atelier); ouverture sur des extensions de fonctions. Elle répond à un besoin de plus en plus pressant de l'industrie. En effet, actuellement les directeurs de commande numérique: sont peu communicants, ou bien communiquent suivant des règles spécifiques, peu adaptables (protocole rigide), sont difficilement évolutifs. Ceux-ci demandent, donc, des compétences étendues en informatique et en électronique pour le développement d'un protocole d'échange spécifique, avec le monde extérieur. Dans une première partie, la problématique de l'ouverture des DCN est définie, les motivations et les objectifs d'un directeur de commande numérique ouvert sont précisés. Ensuite, une synthèse de l'état de l'art des différentes techniques propres aux DCN est présentée, domaine dans lequel la documentation détaillée est très rare. Dans la deuxième partie un modèle de DCN est élaboré. La modélisation proposée est issue d'une étude des fonctions supportées par un DCN classique et d'un examen des besoins exprimés plus haut. La solution proposée est originale car le modèle d'architecture adopté est hybride: d'une part, il est constitué d'une partie maitre basée sur un ordinateur industriel contrôlant toutes les communications; d'autre part, d'une partie esclave basée sur une unité d'interpolation rapide. Un prototype a été réalisé sur un exemple significatif: une machine trois axes, transformée à l'occasion en une machine cinq axes, composée de la partie mécanique et de son armoire de puissance électrique. L'environnement est un atelier intégré spécialisé dans la conception et la fabrication assistée par ordinateur de pièces ayant des géométries complexes
27

Magnaud, Patrick. "Méthodologie et outil de conception d'une architecture parallèle temps réel." Toulouse 3, 1990. http://www.theses.fr/1990TOU30210.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette etude est de permettre a un concepteur de definir l'architecture de la machine la mieux adaptee a traiter une application en temps reel et ce sans avoir a tenir compte explicitement des contraintes temporelles et materielles. Dans cette optique, un outil de conception a ete developpe. Il s'appuie sur une methodologie qui utilise un modele d'execution qui s'apparente a la fois aux modeles synchrone et data-flow. Ce modele permet d'exprimer le parallelisme intrinseque d'une application en terme de reseau de modules communiquant par messages. Il se caracterise par une structure recursive combinant le parallelisme vrai et le pipeling et peut etre mis en correspondance biunivoque avec une architecture modulaire reconfigurable. Pour decrire ces applications selon ce modele, nous avons defini un langage qui autorise des techniques de parallelisation automatique des modules composant l'application. Cette parallelisation a pour but d'obtenir une representation dans laquelle tout module d'execute en temps reel. Ces techniques de parallelisation reposent sur des transformations de programmes sequentiels qui en modifient la performance tout en conservant la competence. On obtient ainsi une parallelisation de l'application, qui tient compte des contraintes temps reel. Pour eviter au concepteur de tenir compte des contraintes temporelles et materielles qui dependent de l'architecture cible, l'outil que nous avons concu determine automatiquement la structure modulaire optimale traitant l'application en temps reel. Il suffit alors de configurer l'architecture cible selon cette structure
28

Aussenac-Gilles, Nathalie. "Conception d'une méthodologie et d'un outil d'acquisition de connaissances expertes." Toulouse 3, 1989. http://www.theses.fr/1989TOU30149.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'acquisition des connaissances est reconnue comme un problème crucial pour la conception de systèmes experts et fait l'objet de travaux dans deux disciplines : l'intelligence artificielle et la psychologie. En intelligence artificielle, les méthodes et logiciels concernent des domaines d'application limités à certains types de problèmes. Des résultats plus théoriques et de portée générale font référence aux différentes formes de modélisation de l'expertise. La psychologie cognitive a mis en évidence la complexité, la diversité et le caractère implicite des connaissances d'un expert, ainsi que différentes techniques qui permettent d'y accéder. Cette contribution porte sur la mise au point, par une approche interdisciplinaire, d'une méthode d'extraction et de formalisation des connaissances d'un expert : Macao. Celle-ci s'adresse en priorité au cogniticien, mais favorise l'expression directe de l'expert. Ses connaissances sont recueillies à l'aide de diverses techniques, validées en psychologie pour leur capacité à révéler différents aspects de son activité. Puis elles sont analysées à travers le cadre fourni par un modèle de son fonctionnement cognitif. La méthode se déroule en quatre étapes : identification de l'expertise, recueil puis analyse de protocoles, et enfin validation par l'expert. Elle s'appuie sur l'utilisation d'un logiciel, dont le formalisme de représentation des connaissances a été défini de manière à traduire toute la richesse des connaissances sans préjuger de leur environnement d'exploitation, et à intégrer les concepts du modèle cognitif. Le logiciel étant destiné à une utilisation conjointe par le cogniticien et par l'expert, on dissocie, dans cette représentation, formalisme interne et présentation externe. Ainsi, les connaissances recueillies sont accessibles de façon très interactive, et l'expert peut facilement intervenir sur une image de ces connaissances
29

Company, Olivier. "Machines-outils rapides à structure parallèle : Méthodologie de conception, applications et nouveaux concepts." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2000. http://tel.archives-ouvertes.fr/tel-00481184.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le monde de la machine-outil est en évolution permanente afin de répondre au marché, très réactif, des pièces usinées. De nos jours, il existe une grande demande de machines rapides à commande numérique, notamment pour l'industrie automobile. Les limites dynamiques des machines cartésiennes à architecture série ayant été atteintes, les premières machines-outils à architecture parallèle ont fait leur apparition sur le marché. Elles sont inspirées des mécanismes et des robots parallèles largement étudiés par les roboticiens au cours de ces 25 dernières années. Cette thèse, qui s'inscrit à la frontière de la robotique et du domaine de la machine-outil, propose une démarche de sélection, de modélisation, d'optimisation et de dimensionnement de machines-outils parallèles rapides. Les outils proposés sont l'établissement des modèles géométrique, cinématique et dynamique, le calcul des efforts dans les barres, de la rigidité et de l'influence des erreurs géométriques sur la précision de la machine. Cette démarche est ensuite appliquée à la résolution des cas concrets relatifs à l'usinage 3 axes et 5 axes. Une nouvelle famille de mécanismes parallèles, intermédiaire entre le robot Delta et l'Hexa, est également présentée. Cette famille possède 4 degrés de liberté, cas peu étudié à ce jour. Elle trouve des applications aussi bien dans le domaine de la robotique de manipulation (tâches de pick and place avec orientation) que dans le domaine de l'usinage 5 axes.
30

Ayrault, Philippe. "Développement de logiciel critique en FoCalize : méthodologie et outils pour l'évaluation de conformité." Paris 6, 2011. http://www.theses.fr/2011PA066120.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Tout semble montrer que la complexité des logiciels croit plus vite que notre capacité à démontrer leur bonne adéquation aux besoins requis et leur bon fonctionnement. Cette thèse repose sur l'expérience de l'auteur, en tant qu'évaluateur de systèmes critiques pilotés par du logiciel et tente de répondre aux besoins de support théorique et de formalisation des études de risque, afin de conforter les décisions de mise en exploitation. Le problème est posé dans le cadre de l'utilisation de l'atelier de développement FoCalize. Il permet l'écriture de spécifications sous la forme de formules du premier ordre puis le développement progressif du code, en utilisant héritage, paramétrisation et modularité. La thèse s'intéresse à deux aspects de la certification d'un logiciel critique développé à l'aide de l'atelier FoCalize. La conformité de l'outil aux exigences requises par les principales normes applicables dans le domaine de la Sûreté de Fonctionnement est étudiée. Pour cela, un cycle de développement système couvrant l'ensemble des phases de développement est proposé. Ce travail permet de montrer que l'outil FoCalize possède toutes les caractéristiques nécessaires à une certification. La thèse porte ensuite sur la réalisation d'analyses de risques sur un logiciel issu d'un développement en FoCalize. Une présentation des différentes méthodes appliquées pour l'évaluation d'un logiciel est effectuée. Puis, un outil de calcul de dépendances entre Entrées/Sorties vraies d'un composant est spécifié formellement en Coq et sa preuve de correction est fournie. Une implémentation d'un prototype a été réalisée et appliquée sur un régulateur de vitesse.
31

Veste, Stéphane. "Méthodologie et outils pour la création d'un test d'écoute dichotique de haute qualité." Grenoble INPG, 1992. http://www.theses.fr/1992INPG0078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette these est d'obtenir une methode viable d'exploration fonctionnelle de sujets soit neurologiquement indemnes ou pathologiques par l'intermediaire du test d'ecoute dichotique. Contrairement aux epreuves binaurales, ce test consiste a presenter simultanement deux items differents a chaque oreille. Chacune d'elle transmet preferentiellement le message auditif a l'hemisphere controlateral. Toutefois pour ce test, il est necessaire d'avoir un seul parametre variable dans le contenu des informations recues dans les deux canaux, tous les autres parametres ne doivent laisser aucune prise a une identification preferentielle du message. Hors, depuis kimura, aucun parametre acoustique n'a ete maitrise. Par contre, le traitement de signal, nous a permis de considerer le probleme. En effet, on est actuellement en mesure de synchroniser parfaitement les items mis en competition au niveau de chaque unite phonetique, avec la meme fo et la meme sonie. Pour ces diverses modifications, les trois courbes de reference (rythme, fo et sonie) sont, independamment les unes des autres, soit prises sur l'un des deux items, soit acquises par l'intermediaire d'une tablette graphique. Cette possibilite de variation d'un ou plusieurs parametres acoustiques, permet ainsi d'evaluer leurs influences sur la perception des items. Par ailleurs, a l'aide d'acces a la base de donnees linguistique (adaptee aux besoins du test), il est possible de controler egalement les variables phonetiques telles que les traits acoustiques, le nombre de syllabes, le point d'unicite, les champs lexicaux et semantiques (concretude, imagerie, frequence d'apparition des mots dans la langue). A partir d'une population de cent personnes neurologiquement indemnes, cet outil a permis, de confirmer et d'infirmer les resultats deja obtenus et d'evaluer la sensibilite des hemispheres au priming en faisant preceder, en ecoute binaurale, la paire dichotique par un item entretenant un lien semantique de synonymie avec un des items de cette paire
32

Reimeringer, Michael. "Une méthodologie et des outils pour concevoir en tenant compte de la simulation." Reims, 2009. http://www.theses.fr/2009REIMS001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les progrès effectués dans les modèles et les logiciels et la puissance des matériels font de la simulation un outil incontournable de la conception. Il est en effet indéniable que l'utilisation des logiciels de simulation, sous toutes leurs formes, apportent des avantages importants: études de solutions alternatives, optimisation des produits, réduction voire disparition des prototypes physiques, évaluation de modes de fabrication, diminution des coûts et des délais. Si l'on ne peut plus imaginer de conception sans appels fréquents à la simulation, l'intégration des calculs dans le processus de conception ne peut se faire sans définir les étapes et les liaisons entre les différents logiciels. Aujourd'hui cette étape de liaison entre ces différents outils n'est pas ou n'est encore que très partielle et l'aspect méthodologique est très souvent occulté
Simulation becomes incontrovertible due to the many advancement made in model, software and material. The use of simulation tools supply many advantages: study of alternative solutions, optimization of product, decrease or disparition of physical prototypes, assessment of manufacturing process, and reduction of cost and delay. Nowadays design is often done without considering subsequent step like simulation. However this step is indispensable
33

Congnard, Florian. "Méthodologie et physiopathologie des mesures de pressions artérielles périphériques chez le sujet sain : aspects cliniques, méthodologiques et pédagogiques." Thesis, Angers, 2017. http://www.theses.fr/2017ANGE0049/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La mesure de l’index de pression systolique de cheville (IPSC) constitue un outil simple et non invasif pour détecter les atteintes artérielles des membres inférieurs. Si la méthodologie et l’interprétation de cet index ont été standardisées, il demeure des divergences quant à certains aspects de sa mesure. Ainsi, les travaux de recherche menés ont investigué trois de ces aspects. Dans un premier temps, l’objectif était d’étudier l’évolution physiologique de l’IPSC avec l’avancée en âge au sein d’une population saine et physiquement active. Cette analyse a rapporté une relation positive entre l’IPSC et l’âge, tendance « logique » au regard des modifications structurales de l’artère avec la sénescence. Dans un deuxième temps, les investigations se sont orientées vers l’utilisation d’outils de mesures automatiques de la pression artérielle pour le calcul de l’IPSC en récupération d’un exercice physique. Nous avons mis en évidence que l’outil oscillométrique permettait d’obtenir une valeur d’IPSC post-effort plus rapide mais aussi de diminuer l’erreur standard de mesure. Dans un troisième temps, nous avons abordé les stratégies d’apprentissage de cette mesure vasculaire. La mesure de pression systolique de cheville (PASC) apparaît largement sous-enseignée comparativement à la mesure brachiale. L’objectif était d’étudier objectivement, via simulateur, l’effet d’une intervention pédagogique pratique supplémentaire sur la compétence d’étudiants novices à mesurer cette PASC. Un apprentissage pratique d’une heure permettait de diminuer l’erreur de mesure mais n’était pas suffisante pour harmoniser l’ensemble des paramètres de la mesure selon les standards de mesure existants
The measurement of ankle to brachial pressure index (ABPI) is a simple and non-invasive diagnostic tool for detecting arterial involvement of the lower limbs. If the methodology and interpretation of this index have been standardized, there remain some discrepancies about some aspects of its measurement. Thus, the present thesis reports the investigations of three of these aspects. First, the objective was to study the physiological relationship between ABPI and age among healthy and physically active subjects. The results show a positive relationship. This trend is consistent with structural modifications of arterial wall with ageing. Second, our aim was to investigate the use of automatic blood pressure measurement tools for the calculation of ABPI during the recovery of a maximal physical exercise. We found that the use of anoscillometric blood pressure device allowed to obtain a faster postexercise ABPI faster than a manual recording and also to reduce the standard error of the measurement. Finally, we discussed the learning strategies of this peripheral vascular measurement. Indeed, it appears that the measurement of arterial systolic blood pressure at the ankle (ASBPa) is largely under-taught compared to the humeral measurement. The purpose was to objectively assess, by a simulator, the effect of an additional practical and pedagogical intervention on the ability of novice students to perform ASBP a measurement. The results suggest that a one-hour practical learning allows to significantly reduce the measurement error but is not sufficient to harmonize all of the measurement parameters according to the measurement standards
34

Greliche, Luc. "Aide à la conception d'installations thermiques solaires : méthodologie et outil logiciel." Perpignan, 1994. http://www.theses.fr/1994PERP0190.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La methodologie de developpement et la realisation de solexpert, un outil d'aide a la conception d'installations solaires thermiques (eau chaude sanitaire, plancher solaire direct, piscine solaire) destine aux praticiens du domaine (prescripteurs, bureaux d'etude, installateurs) en europe du sud sont presentees. Cet outil vise: d'une part a proposer a l'utilisateur une installation adaptee a ses besoins, en tenant compte des aspects scientifiques, economiques et pratiques ; d'autre part a lui fournir une evaluation des performances energetiques et economiques de l'installation prevue. Des modules de type systeme expert et des bases de donnees integrees facilitent le travail de l'utilisateur et permettent de tirer parti au mieux des informations dont il dispose. Le cadre de travail est defini et un tour d'horizon des methodes de conception actuelles permet de definir l'esquisse d'un systeme a base de connaissances appuye sur des modeles physiques. Une analyse comparative (modeles et resultats) d'outils de calcul existants (eau chaude sanitaire) permet de preciser les directions a suivre. La methodologie de developpement du systeme a base de connaissances, presentee ensuite, s'appuie sur la notion de modele conceptuel et plus precisement sur le triptyque taches, modeles, methodes de l. Steels. Le schema du modele conceptuel est presente. Les modeles physiques et economiques sont developpes et permettent de structurer le modele conceptuel developpe ensuite. Le passage du modele conceptuel au logiciel est etudie: architecture du logiciel, outils et techniques utilises dans les differents modules, interface utilisateur. En annexe (volume separe) sont presentes les resultats comparatifs des outils de calcul existants (eau chaude sanitaire) et le mode d'emploi du logiciel solexpert.
35

Pleczon, Patrick. "Éléments de méthodologie et outils pour l'assistance à l'opérateur : application à la conduite automobile." Toulouse, ENSAE, 1992. http://www.theses.fr/1992ESAE0018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'assistance à l'opérateur regroupe l'ensemble des connaissances, des méthodes et des techniques que l'on peut mettre en œuvre pour l'étude et la conception de systèmes informatiques visant à assister un opérateur dans l'ensemble ou dans une partie de ses tâches. La création de logiciels d'assistance dotes d'une certaine intelligence passe avant tout par la prise en compte de l'être humain, ses capacités et ses limites dans l'exécution des tâches qui lui sont assignées. L'objectif de cette thèse est donc de présenter les concepts, de proposer des éléments de méthodologie et d'apporter des outils pour la conception de logiciels d'assistance intelligente. La première partie s'ouvre sur la présentation des éléments fondamentaux de l'interaction homme-machine, notamment les principaux modèles d'opérateur humain, le rôle de la représentation mentale dans l'activité cognitive et les mécanismes de l'erreur humaine. Elle se poursuit par la proposition d'éléments de méthodologie pour l'assistance à l'opérateur. La seconde partie décrit un logiciel de représentation des connaissances procédurales qui permet de réaliser un modèle conceptuel d'assistance sous la forme d'un programme susceptible d'être couple aussi bien à une interface opérateur qu'à des capteurs ou des actionneurs. La mise en œuvre de ce logiciel et de la méthodologie proposée est illustrée par deux applications au domaine automobile, développées dans le cadre du programme PROMETHEUS : réalisation d'une interface conducteur-véhicule pour l'aide à la conduite sur autoroute (troisième partie); définition d'une méthodologie et conception d'outils informatiques pour l'évaluation d'interfaces conducteur-véhicule qui sont destinées aux fonctions dites de confort (quatrième partie).
36

Da, Fonseca Munford-Argollo Daniel. "Outils de conception de circuits RF et micro-ondes intégrant les concepts de méthodologie." Limoges, 2000. http://www.theses.fr/2000LIMO0023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les circuits rf et microonde deviennent de plus en plus grands et complexes. Pour gerer l'augmentation de la complexite, des efforts dans la modelisation des dispositifs et des circuits, dans le developpement de methodes d'analyse performantes ont ete realises. Par contre, la semantique des outils de simulation n'a pas beaucoup changee. A la fin d'une conception, on obtient un ensemble deconnecte de schematiques, de parametres de simulation et de resultats de simulation. La sequence des actions qui ont ete executees pour la production du circuit final n'est pas apparente dans cet ensemble d'information. Pour cette raison, la reutilisation des conceptions est toujours difficile. Ce travail de these est consacre a la mise en uvre d'un environnent informatique de conception capable de representer les circuits avec leurs methodologies de conception. L'idee centrale consiste a etablir des structures d'information dans lesquelles il est possible d'enregistrer une conception avec l'enchainement d'actions de simulation qui ont ete executees par le concepteur. Une fois une conception enregistree il est possible de la reutiliser. La structure de donnees proposee permet ainsi une documentation precise de la methodologie de conception. Pour la construction de l'environnement de conception, il a ete necessaire la realisation de realiser un simulateur de circuits performant appele liana. Le simulateur liana a comme avantage d'etre ouvert et de donner acces a ces principales fonctionnalites a travers ses interfaces. Ce simulateur a ete integre dans un environnent de simulation commerciale.
37

Rolland, Laurence. "Analyses comparatives de systèmes d'infiltration-percolation : colmatage et outils de diagnostics." Montpellier 2, 2009. http://www.theses.fr/2009MON20132.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes d'infiltration-percolation sont largement utilisés pour le traitement des eaux résiduaires en assainissement collectif des petites collectivités ainsi qu'en assainissement non collectif. Ces systèmes extensifs présentent l'avantage d'une gestion simple tout en présentant de bonnes performances épuratoires. Ils restent toutefois sensibles au colmatage physique et biologique du milieu filtrant, colmatage défavorable aux performances épuratoires mais aussi à la durée de vie des ouvrages. Le rôle des matériaux et de la conception des filtres sur le contrôle de la perméabilité du lit filtrant et de la régulation de la biomasse accumulée reste mal connus et aucun outil de diagnostic non destructif ne permet actuellement de caractériser l'état d'un massif en cours de fonctionnement. Ce travail a donc eu pour objectif d'analyser, à différentes échelles d'observation et avec différents outils, notamment non destructifs, la réponse de systèmes d'infiltration sous des conditions de fonctionnement imposées mettant en avant l'influence (i) de la nature de l'eau à traiter, la configuration du lit (type de matériaux filtrants et leur mise en œuvre, avec notamment la présence ou non d'une géogrille en fond de massif) mais également (ii) des paramètres de fonctionnement (charge hydraulique, charge organique, et mode d'alimentation). Les résultats obtenus montrent le rôle déterminant (i) de la granulométrie des sables sur la distribution hydraulique et le contrôle de la masse particulaire accumulée, (ii) du mode d'alimentation et des charges imposées. L'état de fonctionnement des systèmes a pu être évalué à différents temps de travail. Différents outils non destructifs de diagnostic ont montré leur intérêt et des velurs seuils ont pu être associées à différents états de fonctionnement des systèmes
Seepage beds are widely used for on-site and small communities wastewater treatment. These extensive systems present the advantages of both an easy management and good treatment performances. However, they are sensitive to the physical and biological clogging. Clogging alter the treatment performances but also reduce the service life. The role of materials and conception of filters on the control of the permeability of the filtering bed and regulation of the biomass accumulated remain badly understood. In addition, there is a lack of non-destructive tools in order to perform diagnosis on operating systems. The aim of this thesis is to analyse (at various scales and with different tools, especially non-destructive) the answer of infiltration systems to varying operating conditions that are, namely: (i) the composition of the influent, the seepage bed design (type of sand and its implementation, the presence of a geogrid at the bottom), but also (ii) of the operating parameters (hydraulic load, organic load, and mode of feeding). Results highlight the determining roles (i) of the grain size distribution on hydraulic behaviour and the retention of suspended solids, (ii) and of the feeding mode and organic loads. We estimate the operating state of the systems at different time. We distinguish several non-destructive tools fitted for the diagnosis: the measurement of the gaseous oxygen within soil porosity, the measurement of electrical resistivity. In addition, we determine threshold values that allow to differentiate the different state of the system operation
38

Justin, Joël. "Étude du couple stratégie-outil de contrôle de gestion : méthodologie et cas." Bordeaux 4, 2001. http://www.theses.fr/2001BOR40010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le principal objectif de ce travail de recherche est d'etablir une relation entre des axes strategiques cles tels que la maitrise des delais, de la qualite, de l'innovation d'une part, et des outils de controle de gestion d'autre part. La premiere partie, basee sur une etude de la litterature, conduit a la modelisation du concept d'outil de controle. Sur cette base theorique, une liaison entre les outils de controle et les axes strategiques precites est etablie. La seconde partie precise la demarche methodologique qui a pris la forme d'une recherche-action realisee au sein d'une entreprise de production d'instruments d'ecriture. Une modelisation du concept de recherche action appliquee a une etude de cas est proposee. La conception et a l'implantation d'un ensemble d'outils de controle degestion. Le but est de repondre a un probleme strategique risquant, a terme, de generer un desavantage concurrentiel pour l'entreprise. La contribution academique de ce travail de recherche porte sur les points suivants : validation d'un cadre methodologique reliant des outils de controle a des axes strategiques ; elaboration d'un modele theorique d'evaluation des performances conduisant a la conception d'un simulateur de gestion. Les apports manageriaux sont : la conceptualisation et la representation claires du probleme industriel pose ; la visualisation globale de la place et du role de chacun des outils de controle implantes, l'identification precise de cinq categories majeures de dysfonctionnements ; la proposition de plans d'actions d'amelioration de la performance industrielle aupres de la direction generale.
39

Semail, Eric. "OUTILS ET MÉTHODOLOGIE D'ÉTUDE DES SYSTÈMES ÉLECTRIQUES POLYPHASÉS. GÉNÉRALISATION DE LA MÉTHODE DES VECTEURS D'ESPACE." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2000. http://tel.archives-ouvertes.fr/tel-00266256.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La démarche générale du mémoire consiste à utiliser des outils mathématiques permettant d'élaborer un formalisme vectoriel applicable aux systèmes électriques au sens large. Ce formalisme bénéficie à la fois des propriétés graphiques et géométriques de la théorie des vecteurs d'espace qu'il généralise et de la puissance du calcul matriciel. Aussi, est-il tout particulièrement adapté à l'étude des systèmes polyphasés.
Tout d'abord, on caractérise les modulateurs d'énergie indépendamment de leurs charges. Pour cela des espaces vectoriels leur sont associés ainsi que des familles de vecteurs qui les caractérisent. Il est possible alors de définir quel type de charge le modulateur est capable de contrôler. Les degrés de liberté de la commande trouvent également une formulation mathématique. Les exemples traités sont les onduleurs de tension monophasé et triphasé deux niveaux. L'approche conduit, dans le cas d'une commande aux valeurs moyennes, à un calcul original des durées de conduction des interrupteurs en utilisant la notion de barycentre. Les algorithmes obtenus, généralisables aux onduleurs à n bras, comportent un nombre réduit d'opérations logiques et arithmétiques.
Le formalisme est ensuite appliqué à la machine asynchrone triphasée avec q barres au rotor ; ceci nous permet d'expliciter la notion de rotor diphasé équivalent. La machine asynchrone pentaphasée est également modélisée et l'approche développée met en évidence les conditions que doit remplir l'onduleur à 5 bras pour l'alimenter correctement.
Dans la dernière partie, un onduleur de courant à Modulation de Largeur d'Impulsions est étudié à l'aide du formalisme. Les non-linéarités de la commande sont prises en compte vectoriellement, notamment, de façon originale, celle concernant la durée minimale de conduction des interrupteurs. On décrit enfin l'implantation matérielle de cette commande sur microcontrôleur 16 bits et présente les résultats expérimentaux dans le cas d'une charge constituée d'une machine asynchrone triphasée en parallèle avec des condensateurs.
40

Razafindramary, Donné. "Conduite de systèmes de fabrication à commande numérique : Méthodologie et outils temps-réel de communication." Paris 13, 1991. http://www.theses.fr/1991PA132012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail vise à définir une méthode et des outils pour la conduite d'activités de production, avec une attention particulière pour les ateliers de fabrication à commande numérique consacres à la fabrication unitaire de pièces complexes. La structuration des systèmes intégrés de production a été analysée en premier. Il ressort de cette analyse qu'en attendant le développement prévisible de la normalisation, ou bien à des niveaux bien particuliers niveau équipement), des développements spécifiques d'outils de communication sont nécessaires. On définit ensuite une méthodologie d'analyse et de spécification de ces moyens de communication. Partant d'une analyse fonctionnelle, en appui sur les points de vue des utilisateurs, on arrive à une spécification plus adaptée à des développements logiciels grâce aux formalismes et aux heuristiques inspirés de Ward et Mellor. Cette approche a permis l'élaboration du modèle de logiciel de conduite, intégré à la plate-forme expérimentale de production du laboratoire grpi de l'université paris XIII, dans les locaux de l'iut de Saint-Denis. Deux versions ont été implémentées: l'une sur un système mono-tache, l'autre s'appuie sur un coprocesseur auxiliaire et un exécutif temps-réel. En conclusion sont invoques les développements en cours, qui prolongent ce travail et les extensions qui pourraient être envisagées, en particulier vers le niveau supervision
41

Semail, Éric. "Outils et méthodologie d'étude des systèmes électriques polyphasés : généralisation de la méthode des vecteurs d'espace." Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-166.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La démarche générale du mémoire consiste à utiliser des outils mathématiques permettant d'élaborer un formalisme vectoriel applicable aux systèmes électriques au sens large. Ce formalisme bénéficie à la fois des propriétés graphiques et géométriques de la théorie des vecteurs d'espace qu'il généralise et de la puissance du calcul matriciel. Aussi, est-il tout particulièrement adapté à l'étude des systèmes polyphasés. Tout d'abord, on caractérise les modulateurs d'énergie indépendamment de leurs charges. Pour cela des espaces vectoriels leur sont associés ainsi que des familles de vecteurs qui les caractérisent. Il est possible alors de définir quel type de charge le modulateur est capable de contrôler. Les degrés de liberté de la commande trouvent également une formulation mathématique. Les exemples traités sont les onduleurs de tension monophasé et triphasé deux niveaux. L'approche conduit, dans le cas d'une commande aux valeurs moyennes, à un calcul original des durées de conduction des interrupteurs en utilisant la notion de barycentre
Les algorithmes obtenus, généralisables aux onduleurs à n bras, comportent un nombre réduit d'opérations logiques et arithmétiques. Le formalisme est ensuite appliqué à la machine asynchrone triphasée avec q barres au rotor; ceci nous permet d'expliciter la notion de rotor diphasé équivalent. La machine asynchrone pentaphasée est également modélisée et l'approche développée met en évidence les conditions que doit remplir l'onduleur à 5 bras pour l'alimenter correctement. Dans la dernière partie, un onduleur de courant à Modulation de Largeur d'Impulsions est étudié à l'aide du formalisme. Les non linéarités de la commande sont prises en compte vectoriellement, notamment, de façon originale, celle concernant la durée minimale de conduction des interrupteurs. On décrit enfin l'implantation matérielle de cette commande sur microcontrôleur 16 bits et présente les résultats expérimentaux dans le cas d'une charge constituée d'une machine asynchrone triphasée en parallèle avec des condensateurs
42

Abel, Nicolas. "Outils et méthodes pour les architectures reconfigurables dynamiquement à grain fin : Synthèse et gestion automatique des flux de données." Cergy-Pontoise, 2006. http://biblioweb.u-cergy.fr/theses/06CERG0301.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente des outils et méthodologies de développement destinés aux architectures reconfigurables dynamiquement. On commence par proposer une suite d'outils améliorant la mise en oeuvre de la reconfiguration dynamique : on optimise le stockage des configurations et la durée des reconfigurations grâce à des outils logiciels et matériels. On termine en étudiant les mécanismes de gestion de la zone reconfigurable à partir d'un langage de haut niveau. Ensuite, on s'intéresse particulièrement à la gestion automatique des flux de données. On se base sur un découplage entre les modules de traitement et les modules de gestion des flux de données. Les seconds, sont entièrement pris en charge par les outils de développement et le système de gestion de l'architecture. Ainsi, le système dispose d'une bibliothèque de traitements et de tous les outils permettant de les séquencer en temps réel. L'ensemble des concepts étudiés a été mis en oeuvre en situation réelle sur l'architecture ARDOISE
This thesis presents tools and methodologies dedicated to fine grain dynamically reconfigurable architectures. In the first part, after studying this reconfiguration mode, we describe a tool set improving dynamical reconfiguration implementation. Firstly, we optimize configuration storage and reconfiguration duration proposing software compressing tools and hardware reconfiguration module. We finish studying the system management of the reconfigurable area. The system, developed with a high level language, makes configurations scheduling flexible. In the second part, we focus on the data flow automatic management. We base this on the separation of treatment modules and data flow managing modules. The second is totally directed by the developing tools and the managing system. In this way, the system has a treatment library and all the tools necessary to interconnect and schedule treatments in real time. The whole studied concepts have been implemented on ARDOISE architecture
43

Diop, Ibrahima. "Méthodologie et outils pour la mise en pratique des attaques par collision et attaques horizontales sur l'exponentiation modulaire." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEM010/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions deux sous-familles d'attaques par canaux cachés sur l'exponentiation modulaire appelées respectivement attaques par collision et attaques horizontales. Cette étude est faite selon deux axes : leurs mises en pratique et les possibles contremesures.Dans un premier temps, nous étudions les attaques par canaux cachés sur un simulateur développé durant cette thèse. Ce simulateur permet de vérifier la bonne implémentation d'une attaque par canaux cachés avant sa mise en pratique dans un environnement réel. Dans un deuxième temps, nous étudions les attaques par collision dans un environnement réel. Pour cela, nous nous sommes intéressés à l'automatisation de la détection effective de collision. Ainsi, nous proposons un nouveau critère de détection de collision.Dans un troisième temps, nous étudions l'estimation du rapport signal à bruit d'un jeu de traces dans le contexte des attaques par canaux cachés. Ainsi, nous proposons une nouvelle façon d'estimer le rapport signal à bruit lors d'une attaque par canaux cachés. En outre, nous montrons que cette estimation du rapport signal à bruit peut être exploitéepour l'analyse des fuites d'un canal caché mais aussi pour effectuer un filtrage adaptatif ne nécessitant pas la connaissance de certains paramètres du composant analysé.Dans un quatrième temps, au travers d'une étude détaillée des principales étapes d'une attaque horizontale, nous montrons les problèmes pouvant intervenir dans la pratique et comment les résoudre. Ainsi des solutions génériques sont proposées. Nous proposons finalement de possibles contremesures aux attaques horizontales sur l'exponentiation modulaire
This thesis is focused on the study of two sub-families of side channel attacks applied on modular exponentiation called respectively, collision based attacks and horizontal (or single shot) attacks. This study is made according to two axes: their applications and the possible countermeasures.Firstly, we study side channel attacks on a simulator developed during this thesis. This simulator allows to validate the good implementation of a any side channel attack before its application in a real environment.Secondly, we study collision based attacks in a real environment. For this purpose, we study the automation of collision detection in practice. Then, we introduce a new collision detection criterion and show its practical interest. Afterwards, we study the estimation of the signal to noise ratio in the context of side channel attacks. So, we introduce a fast and accurate method for its estimation during a side channel analysis. From our method we derive pragmatic and efficient methods for the daily tasks of evaluators. Among them the analysis of the electrical activity of integrated circuit or the identification of the frequencies carrying usable information or information leakage.Finally, through a detailed description of the main stages of an horizontal attack, we propose effective and practical solutions to improve secret information extraction in real environment and on the other hand possible countermeasures against the horizontal attacks applied on modular exponentiation
44

Barbe, Thierry. "Méthodologie et outils pour la mise en oeuvre automatique d'une synthèse de parole de haute qualité." Grenoble INPG, 1990. http://www.theses.fr/1990INPG0147.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour mettre en uvre un systeme de synthese de parole de haute qualite par unites stockees, nous proposons une methodologie basee sur un modele d'emergence phonetique et applicable a l'analyse automatique de grands corpus de signaux de parole naturelle. L'emergence phonetique est obtenue par un modele de decomposition temporelle et permet de positionner des marqueurs de centre, de noyau et de frontiere pour chacun des phonemes. Avec les resultats supplementaires fournis par un algorithme de mesure de la frequence fondamentale, nous obtenons des fichiers prosodiques contenant les informations prosodiques necessaires a la constitution de bases de donnees prosodiques et a la creation de dictionnaire d'unites en vue de la synthese. Ces informations sont necessaires et suffisantes pour un controle prosodique precis du message de synthese. Afin d'offrir plusieurs options de synthese, nous avons realise un systeme pouvant utiliser soit des techniques psola de deformation d'originaux (td-psola ou lp-psola), soit un modele lf du signal glottique. Nous avons pour cela mis au point des outils d'analyse tels qu'un detecteur de frequence fondamentale par amdf et un algorithme de marquage de periodes utilisant une technique de reduction de donnees. Les resultats ont ete evalues par comparaison avec les resultats obtenus sur le signal laryngographique. Un algorithme d'extraction de formants par analyse lpc pitch-synchrone a egalement ete realise et permet d'evaluer les parametres du conduit vocal, d'extraire le signal glottique par filtrage inverse et de determiner les parametres du modele lf. Finalement, le systeme de synthese realise permet de modifier des signaux de parole originaux ou de creer des phrases de synthese a vocabulaire illimite au moyen d'un dictionnaire de polysons de 2000 unites environ
45

Marilleau, Nicolas. "Méthodologie, formalismes et outils de modélisation-simulation pour l'étude des systèmes complexes : application à la mobilité géographique." Besançon, 2006. http://www.theses.fr/2006BESA2072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Gaubert, Alexandra. "Vers une méthodologie de la déformulation des mélanges complexes combinant outils analytiques et chimiométriques : apllication aux détergents." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10241.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Que ce soit à des fins de contrôle qualité ou de veille concurentielle, la déformulation (action d'identifier et de quantifier les constituants d'un produit) représente aujourd'hui un véritable challenge analytique dans de nombreux domaines industriels tels que les cosmétiques, la santé, les matériaux... Dans ce contexte, nous nous sommes intéressés aux mélanges complexes que sont les produits détergents tels que les lessives qui représentent un marché en constante croissance et en perpétuelle évolution. Dans ce secteur, en effet, les réglementations sont de plus en plus drastiques et les consommateurs plus exigeants ce qui entraine le développement de nouveaux produits plus respectueux de l'environnement et de la santé intégrant des tensioactifs bio-sourcés et des enzymes. Les lessives pouvant contenir jusqu'à 25 composés différents, nous nous sommes focalisés sur l'analyse de leurs composés majoritaires que sont les tensioactifs et les enzymes. Après avoir élaboré une échantillothèque exhaustive de ces produits, la RMN du proton et la spectrométrie Raman ont été utilisées pour identifier et quantifier les tensioactifs et la spectrométrie de masse des rapports isotopiques (IRMS) pour l'évaluation de leur origine bio-sourcée. Les résultats obtenus ont montré l'intérêt du couplage de la spectroscopie Raman avec des méthodes chimiométriques d'extraction du signal comme l'ICA et la MCR-ALS pour identifier et quantifier les tensioactifs. L'IRMS a permis d'identifier les tensioactifs d'origine bio-sourcée ainsi que le type de plantes (C3 ou C4) utilisé comme matière première pour leur synthèse. Les enzymes utilisées dans la formulation d'une lessive commerciale ont pu être identifiées et quantifiées grâce à l'association d'une méthode de précipitation des protéines avec une analyse par LC-MS/MS. Ces développements analytiques contribuent à la mise en place d'une méthodologie de la déformulation des produits détergents
Deformulation of complex mixtures requires analytical methods for compound identification and quantification. It still represents a real analytical challenge in various industrial fields, such as cosmetics, health, food, materials. In this context, we studied complex mixtures such as detergents and especially, laundry detergents, that represent a constantly growing market. Regulations becoming stricter and consumers requiring more eco-friendly products, manufacturers constantly innove detergent formulations by using bio-based surfactants or enzymes. Laundry detergents containing up to 25 compounds, we focused on the analysis of their major components, i.e. surfactants and enzymes. After developing a comprehensive sample library of such raw materials, 1H NMR and Raman spectrometry were used for surfactant identification and quantification while Isotope Ratio Mass Spectrometry (IRMS) was tested to evaluate their bio-sourced origin. Raman spectrometry combined with chemometric tools such as signal extraction methods was useful for surfactant identification and quantification. Enzymes were identified and quantified using protein precipitation before analyses by LCMS/ MS. All these analytical developments contribute to the establishment of a deformulation strategy for detergent products
47

Brisset, Stéphane. "Outil et méthodologie pour la conception des moteurs à réluctance variable à double saillance." Lille 1, 1995. http://www.theses.fr/1995LIL10012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous étudions un moteur à réluctance variable à double saillance avec quatre dents statoriques et deux dents rotoriques dont les deux phases sont câblées en demi-pont asymétrique. Son nombre de phase étant faible, le démarrage pose problème et nécessite l'élaboration d'une loi de commande complexe pour compenser la simplicité du capteur de position constitue d'une roue dentée et d'une fourche optique. Un modèle éléments finis couple électronique-magnétique-cinématique est alors construit, validé puis utilisé pour résoudre les problèmes lies au démarrage. De plus, les cotations de la géométrie du moteur et les instants de commutation des interrupteurs doivent être déterminés pour satisfaire au mieux le problème de conception formule au moyen d'un cahier des charges. Une méthodologie est proposée pour résoudre les problèmes de conception des dispositifs électromagnétiques. Elle consiste, dans un premier temps, à exprimer le problème de conception dans un formalisme mathématique puis, dans un deuxième temps, à appliquer des méthodes d'optimisation pour le résoudre. L'outil qu'est le modèle éléments finis et la méthodologie de résolution du problème de conception sont ensuite utilisés conjointement pour l'optimisation d'un moteur à réluctance variable à double saillance.
48

Stephan, Joumana. "Complexité urbaine : langage et outils, le cas de Horch Beyrouth." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLD007/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Perçu comme un système adaptatif complexe, l’espace public pourrait être examiné par le biais de la complexité. Dans cette thèse, nous discutons du cas d'un parc urbain, Horch Beyrouth, visant à mettre en valeur les apports épistémologiques et méthodologiques de l'approche de la complexité dans les études urbaines. Malgré que Horch Beyrouth représente jusqu'à 70% des espaces verts de Beyrouth, il a été en grande partie fermé au public depuis la fin de la guerre civile libanaise en 1990. Entouré de trois quartiers culturellement hétérogènes, le parc triangulaire incarne à la fois la multiplicité et l'exclusion urbaine. L’approche de la complexité offre non seulement un lexique scientifique transdisciplinaire, mais également des outils de modélisation interdisciplinaires. Pour illustrer ces outils, nous avons utilisé la triangulation systémique pour le diagnostic urbain de Horch Beyrouth. Il s’agit d’un outil qui reconnaît l’inscription des problèmes complexes dans des continuums structurels, fonctionnels et dynamiques, établissant des relations entre eux et projetant des interactions entre le système et son environnement. Nous avons également présenté l'outil de la méthodologie des systèmes souples pour une gouvernance interactive basée sur des représentations non linéaires de la réalité urbaine. Cette approche nous a fourni de nouvelles idées. Premièrement, aborder les villes, ainsi que les entités urbaines comme Horch Beyrouth, en tant que systèmes complexes, pourrait diverger notre perception des solutions linéaires fragmentées vers des processus évolutifs adaptifs. Deuxièmement, le chaos n’est pas à craindre. En fait, en se situant au bord du chaos les systèmes complexes s’adaptent et co-évoluent, ainsi la créativité se catalyse et le changement émerge. Enfin et surtout, un espace public ne doit pas être conçu, mais encouragé à émerger. Il serait donc préférable d’induire son auto-organisation que d'essayer de la contrôler. Ainsi, un changement d'attitude est nécessaire : le rôle des acteurs urbains, architectes et urbanistes, devrait se réorienter pour rechercher la dynamique sous-jacente d’un système urbain, établir ses propriétés émergentes, pour ultérieurement, déterminer et induire ses opportunités synergiques
Perceived as a complex adaptive system, public space could be examined through the means of complexity. In this thesis, we discuss the case of an urban park, Horch Beirut, aiming to showcase the contributions of the complexity approach to urban studies, both epistemological and methodological ones. Horsh Beirut makes up to 70% of green spaces in Beirut, but has been mostly closed to the public since the end of the Lebanese civil war in 1990. Surrounded by three culturally heterogeneous neighborhoods, the triangular park embodies both urban multiplicity and exclusion. The complexity approach not only offers a transdiciplinary scientific lexicon but also interdisciplinary modeling tools. To showcase these tools, we apply Systemic Triangulation for the urban diagnosis of Horch Beirut. This tool acknowledges the inscription of complex problems in structural, functional and dynamic continuums, establishing the relationships between them, and projecting interactions between the system and its environment. We also propose the Soft Systems Methodology tool for an interactive governance based on non-linear representations of urban reality. The complexity approach has provided us some new insights. First, addressing cities, and urban entities like Horsh Beirut, as complex systems could diverge our perception of fragmented linear solutions towards adaptive evolutionary processes. Secondly, chaos is not to be feared. In fact, by being on the edge of chaos complex systems adapt and co-evolve, consequently creativity is catalyzed and change emerges. Finally, and most importantly, a public space should not be designed, but encouraged to emerge. It would be better to induce its self-organization than to try to control it. Thus, a change of attitude is necessary: the role of urban actors, architects and urban planners, should be reoriented towards seeking the underlying dynamics of an urban system, establishing its emerging properties, and subsequently, determining and inducing its synergistic opportunities
49

Lazaar, Nadjib. "Méthodologie et outil de Test, de localisation de fautes et de correction automatique des programmes à contraintes." Rennes 1, 2011. http://www.theses.fr/2011REN1S115.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement des langages de modélisation des programmes à contraintes a eu un grand impact dans le monde industriel. Des langages comme OPL (Optimization Programming Language) de IBM Ilog, Comet de Dynadec, Sicstus Prolog, Gecode, ainsi que d'autres, proposent des solutions robustes aux problèmes du monde réel. De plus, ces langages commencent à être utilisés dans des applications critiques comme la gestion et le contrôle du trafic aérien, le e-commerce et le développement de programmes critiques. D'autre part, il est connu que tout processus de développement logiciel effectué dans un cadre industriel inclut impérativement une phase de test, de vérification formelle et/ou de validation. Par ailleurs, les langages de programmation par contraintes (PPC) ne connaissent pas d'innovations majeures en termes de vérification et de mise au point. Ceci ouvre la voie à des recherches orientées vers les aspects génie logiciel dédiés à la PPC. Notre travail vise à poser les jalons d'une théorie du test des programmes à contraintes pour fournir des outils conceptuels et des outils pratiques d'aide à cette vérification. Notre approche repose sur des hypothèses quant au développement et au raffinement dans un langage de PPC. Il est usuel de démarrer à partir d'un modèle simple et très déclaratif, une traduction fidèle de la spécification du problème, sans accorder un intérêt à ses performances. Par la suite, ce modèle est raffiné par l'introduction de contraintes redondantes ou reformulées, l'utilisation de structures de données optimisées, de contraintes globales, de contraintes qui cassent les symétries, etc. Nous pensons que l'essentiel des fautes introduites est compris dans ce processus de raffinement. Le travail majeur présenté dans la présente thèse est la définition d'un cadre de test qui établit des règles de conformité entre le modèle initial déclaratif et le programme optimisé dédié à la résolution d'instances de grande taille. Par la suite, nous proposons un cadre conceptuel pour la mise-au-point de ce type de programmes avec une méthodologie pour la localisation et la correction automatique des fautes. Nous avons développé un environnement de test, nommé CPTEST, pour valider les solutions proposées, sur des problèmes académiques du monde de la PPC ainsi qu'un problème du monde réel qui est le problème d'ordonnancement des véhicules
The success of several constraint-based modelling languages such as OPL (Optimization programming Language) of IBM Ilog, COMET of Dynadec, Sicstus Prolog, Gecode, appeals for better software engineering practices, particularly in the testing phase. These languages aim at solving industrial combinatorial problems that arise in optimization, planning, or scheduling. Recently, a new trend has emerged that propose also to use CP programs to address critical applications in e-Commerce, air-traffic control and management, or critical software development that must be thoroughly verified before being used in applications. While constraint program debugging drew the attention of many researchers, few supports in terms of software engineering and testing have been proposed to help verify this kind of programs. In the present thesis, we define a testing theory for constraint programming. For that, we propose a general framework of constraint program development which supposes that a first declarative and simple constraint model is available from the problem specifications analysis. Then, this model is refined using classical techniques such as constraint reformulation, surrogate, redundant, implied and global constraint addition, or symmetry-breaking to form an improved constraint model that must be tested before being used to address real-sized problems. We think that most of the faults are introduced in this refinement step and propose a process which takes the first declarative model as an oracle for detecting non-conformities and derive practical test purposes from this process. Therefore, we enhance the proposed testing framework to introduce a methodology for an automatic tuning with fault localization and correction in constraint programs. We implemented these approaches in a new tool called CPTEST that was used to automatically detect, localize and correct faults on classical benchmark programs and real-world CP problem: the car-sequencing problem
50

Gillot, Frédéric. "Méthodologie de conception et de fabrication d'outillages prototypes hybrides." Nantes, 2006. http://www.theses.fr/2006NANT2075.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography