Дисертації з теми "Mesures temps réel"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Mesures temps réel.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Mesures temps réel".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Roy, Julien. "Correction et moyennage temps-réel pour mesures interférométriques par peignes de fréquence." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30065/30065.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire a pour but le développement d’un système interférométrique à peignes de fréquence simple d’utilisation et performant afin de démocratiser l’utilisation de cette nouvelle technologie. Dans ce mémoire, le principe d’interférométrie par peignes de fréquence est décrit ainsi que des techniques de référencement. Par la suite, le référencement est utilisé afin de concevoir un système de correction et de moyennage temps-réel. Ce mémoire présente le système optique et électronique nécessaire à la réalisation d’un tel système. Toutes les étapes de la conception de l’algorithme de correction et de moyennage y sont exposées ainsi que les différents compromis et optimisations effectués. Finalement, des mesures expérimentales prises et corrigées à l’aide du système développé sont présentées. À ce jour, la mesure d’HCN et de C¬¬2H2 ainsi que celle du micro-résonateur présentées dans ce mémoire possèdent le plus haut rapport signal sur bruit pris par un interféromètre à peignes de fréquence.
2

Kang, Eun-Young. "Abstractions booléennes pour la vérification des systèmes temps-réel." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10089/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente un schéma formel et efficace pour la vérification de systèmes temps-réel. Ce schéma repose sur la combinaison par abstraction de techniques déductives et de model checking, et cette combinaison permet de contourner les limites de chacune de ces techniques. La méthode utilise le raffinement itératif abstrait (IAR) pour le calcul d'abstractions finies. Etant donné un système de transitions et un ensemble fini de prédicats, la méthode détermine une abstraction booléenne dont les états correspondent à des ensembles de prédicats. La correction de l'abstraction par rapport au système d'origine est garantie en établissant un ensemble de conditions de vérification, issues de la procédure IAR. Ces conditions sont à démontrer à l'aide d'un prouveur de théorèmes. Les propriétés de sûreté et de vivacité sont ensuite vérifiées par rapport au modèle abstrait. La procédure IAR termine lorsque toutes les conditions sont vérifiées. Dans le cas contraire, une analyse plus fine détermine si le modèle abstrait doit être affiné en considérant davantage de prédicats. Nous identifions une classe de diagrammes de prédicats appelés PDT (predicate diagram for timed system) qui décrivent l'abstraction et qui peuvent être utilisés pour la vérification de systèmes temporisés et paramétrés
This thesis provides an efficient formal scheme for the tool-supported real-time system verification by combination of abstraction-based deductive and model checking techniques in order to handle the limitations of the applied verification techniques. This method is based on IAR (Iterative Abstract Refinement) to compute finite state abstractions. Given a transition system and a finite set of predicates, this method determines a finite abstraction, where each state of the abstract state space is a true assignment to the abstraction predicates. A theorem prover can be used to verify that the finite abstract model is a correct abstraction of a given system by checking conformance between an abstract and a concrete model by establishing/proving that a set of verification conditions are obtained during the IAR procedure. Then the safety/liveness properties are checked over the abstract model. If the verification condition holds successfully, IAR terminates its procedure. Otherwise more analysis is applied to identify if the abstract model needs to be more precise by adding extra predicates. As abstraction form, we adopt a class of predicate diagrams and define a variant of predicate diagram PDT (Predicate Diagram for Timed systems) that can be used to verify real-time and parameterized systems
3

Guiard-Marigny, Thierry. "Modélisation tridimensionnelle des articulateurs de la parole : implémentation temps réel et mesures d'intelligibilité bimodale." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0164.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous presentons une chaine complete d'analyse-synthese de visages tridimensionnels parlants, developpee pour mener des etudes fondamentales sur la production et la perception visuelle de la parole. Dans un premier temps, une taxinomie originale des differents systemes d'animation de visages synthetiques existants est dressee en decrivant precisement toutes les phases du processus. Les principaux resultats sur la bimodalite intrinseque de la parole sont ensuite analyses pour souligner les precautions a prendre afin de respecter une bonne synchronisation labiale. Une modelisation des organes visibles de la partie inferieure du visage (levres, machoire et peau) a ete realisee sur la base de leurs caracteristiques physiologiques. L'ensemble des modeles est commande par six parametres anatomiques, directement mesurables sur le visage d'un locuteur maquille. La qualite des mouvements labiaux et de leur synchronisation avec le signal de parole a ete evaluee a travers des tests de perception mesurant l'apport d'intelligibilite des modeles a de la parole bruitee. Notre dispositif d'extraction des parametres faciaux est base sur une analyse chromatique d'images video du visage d'un locuteur aux levres maquillees en bleu. Il fournit precisement, en temps reel et 25 fois par seconde, les parametres de commande du visage synthetique. L'ensemble des modeles faciaux et du dispositif de mesure constitue un systeme complet d'analyse-synthese de visages parlants dont les performances permettent des applications aussi bien en recherche fondamentale sur la bimodalite de la parole qu'en communication homme-machine. Notre systeme peut etre mis a la disposition des infographistes pour automatiser le lip-sync dans les films d'images de synthese. Ce travail a ete developpe et est utilise dans le cadre du projet esprit-bra miami
4

Limane, Tahar. "Conception et réalisation d'un outil de surveillance, temps réel, d'espaces de débattements de robots." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0093.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans ce mémoire concernent la conception et La réalisation d'un outil de surveillance en temps réel, de débattements de robots industriels dans le but d'améliorer La sécurité des opérateurs et des machines. Ce mémoire présente d'abord une analyse globale des conditions de risques en Robotique et la mise en évidence des différents facteurs de dépendance Liés à la spécification d'un système de protection. Les différents moyens et dispositifs de protection ainsi que les paramètres caractérisant l'arrêt d'un robot sont ensuite présentés. Les contraintes liées à la réalisation d'un nouveau système de sécurité, élaborant des contrôles d'appartenance à des espaces de surveillance en intégrant la dynamique du robot surveillé sont étudiées. Sont exposées ensuite, les spécifications fonctionnelles et structurelles ainsi que les modèles conceptuels du système de protection à réaliser. Des approches méthodologiques issues du domaine du Génie Logiciel sont utilisées, permettant ainsi de valider l'ensemble du cycle de vie du produit développe et d'en garantir le niveau de qualité et de fiabilité recherché. Ces travaux sont concrétisés par la réalisation de l'outil SAFE (Surveillance d'Ateliers Flexibles et de leur Environnement). Enfin, des perspectives d'intégration de fonctionnalités complémentaires sont proposées, concernant notamment La gestion de la commande et des espaces de surveillance autour des sites robotisés sécurisés
The study presented in this report addresses the problems of designing and implementing a real-time control system of robots movements. The top-Level objective of the study is to enhance the safety of both the human operators and the machines. We begin with a global analysis of risk conditions in Robotics and general relationship statements between the different factors which have to be taken into account when specifying protection systems. We survey the different methods as well as the different equipments used in protection systems against robots possibly undue clearances. Constraints specification of a mean safety system able to control dynamically the robot's containment within the limits allowed or forbidden spaces are studied. Afterwards, we present the functional and structural specifications a well as the conceptual models of the protection systems to be implemented. Methodological approaches of software engineering type are proposed in view of validating the overall system life-cycle, its quality and its reliability. This study results the elaboration of the software tool SAFE (Surveillance d'Ateliers Flexibles et de Leur environnement) which is described in the report. Further developments of SAFE are suggested concerning, particularly, two inter-related functionalities of safety control : - first, the robot command program itself, - second, the dynamic re-specification of safety space when any change arises in the robot's task
5

Morissette, Jean-François. "Algorithmes de gestion de ressources en temps-réel : positionnement et planification lors d'attaques aériennes." Thesis, Université Laval, 2004. http://www.theses.ulaval.ca/2004/22184/22184.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis plusieurs années, Recherche et D´eveloppement pour la Défense Canada (RDDC) et Lockheed Martin Canada (LMC) travaillent en collaboration afin de moderniser le système de Commande et Contrôle (C2) présent sur une frégate. Un tel système a pour but d’analyser et de gérer un flot d’informations considérable afin d’effectuer les bonnes actions face à une situation donnée. Notre rôle au sein de ce projet se situe au niveau de la prise de décision. Nous devons étudier les possibilités que peut offrir la technologie agent à un tel système. Dans ce mémoire, nous proposons un mod`ele formel d’interaction entre les différentes ressources disponibles sur la frégate et les menaces auxquelles elle doit faire face. Nous proposons aussi une technique de positionnement et une approche de planification afin de maximiser les chances de survie de la frégate. Enfin, nous présentons les résultats que nous avons obtenus au moyen de simulations.
6

Buret, Pierrick. "Sécurité temps réel dans les systèmes embarqués critiques." Thesis, Limoges, 2015. http://www.theses.fr/2015LIMO0140/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La croissance des flux d'information à travers le monde est responsable d'une importante utilisation de systèmes embarqués temps-réel, et ce notoirement dans le domaine des satellites. La présence de ces systèmes est devenue indispensable pour la géolocalisation, la météorologie, ou les communications. La forte augmentation du volume de ces matériels, impactée par l'afflux de demande, est à l'origine de l'accroissement de la complexité de ces derniers. Grâce à l'évolution du matériel terrestre, le domaine aérospatial se tourne vers de nouvelles technologies telles que les caches, les multi-coeurs, et les hyperviseurs. L'intégration de ces nouvelles technologies est en adéquation avec de nouveaux défis techniques. La nécessité d'améliorer les performances de ces systèmes induit le besoin de réduction du coût de fabrication et la diminution du temps de production. Les solutions technologiques qui en découlent apportent pour majeure partie des avantages en matière de diminution du nombre global de satellites à besoin constant. La densité d'information traitée est parallèlement accrue par l'augmentation du nombre d'exploitants pour chaque satellite. En effet, plusieurs clients peuvent se voir octroyer tout ou partie d'un même satellite. Intégrer les produits de plusieurs clients sur une même plateforme embarquée la rend vulnérable. Augmenter la complexité du système rend dès lors possible un certain nombre d'actes malveillants. Cette problématique autrefois à l'état d'hypothèse devient aujourd'hui un sujet majeur dans le domaine de l'aérospatial. Figure dans ce document, en premier travail d'exploration, une présentation des actes malveillants sur système embarqué, et en particulier ceux réalisés sur système satellitaire. Une fois le risque exposé, je développe la problématique temps-réel. Je m'intéresse dans cette thèse plus précisément à la sécurité des hyperviseurs spatiaux. Je développe en particulier deux axes de recherche. Le premier porte sur l'évolution des techniques de production et la mise en place d'un système de contrôle des caractéristiques temporelles d'un satellite. Le deuxième axe améliore les connaissances techniques sur un satellite en cours de fonctionnement et permet une prise de décision en cas d'acte malveillant. Je propose plus particulièrement une solution physique permettant de déceler une anomalie sur la gestion des mémoires internes au satellite. En effet, la mémoire est un composant essentiel du fonctionnement du système, et ses propriétés communes entre tous les clients la rend particulièrement vulnérable. De plus, connaître le nombre d'accès en mémoire permet un meilleur ordonnancement et une meilleure prédiction d'un système temps réel. Notre composant permet la détection et l'interprétation d'une potentielle attaque ou d'un problème de sûreté de fonctionnement. Cette thèse met en évidence la complémentarité des deux travaux proposés. En effet, la mesure du nombre d'accès en mémoire peut se mesurer via un algorithme génétique dont la forme est équivalente au programme cherchant le pire temps d'exécution. Il est finalement possible d'étendre nos travaux de la première partie vers la seconde
Satellites are real-time embedded systems and will be used more and more in the world. Become essential for the geo-location, meteorology or communications across the planet, these systems are increasingly in demand. Due to the influx of requests, the designers of these products are designing a more and more complex hardware and software part. Thanks to the evolution of terrestrial equipment, the aero-space field is turning to new technologies such as caches, multi-core, and hypervisor. The integration of these new technologies bring new technical challenges. In effect, it is necessary to improve the performance of these systems by reducing the cost of manufacturing and the production time. One of the major advantages of these technologies is the possibility of reducing the overall number of satellites in space while increasing the number of operators. Multiple clients softwares may be together today in a same satellite. The ability to integrate multiple customers on the same satellite, with the increasing complexity of the system, makes a number of malicious acts possible. These acts were once considered as hypothetical. Become a priority today, the study of the vulnerability of such systems become major. In this paper, we present first work a quick exploration of the field of malicious acts on onboard system and more specifically those carried out on satellite system. Once the risk presentation we will develop some particular points, such as the problematic real-time. In this thesis we are particularly interested in the security of space hypervisors. We will develop precisely 2 lines of research. The first axis is focused on the development of production technics and implementing a control system of a satellite temporal characteristics. The objective is to adapt an existing system to the constraints of the new highly complex systems. We confront the difficulty of measuring the temporal characteristics running on a satellite system. For this we use an optimization method called dynamic analysis and genetic algorithm. Based on trends, it can automatically search for the worst execution time of a given function. The second axis improves the technical knowledge on a satellite in operation and enables decision making in case of malicious act. We propose specifically a physical solution to detect anomalies in the management of internal memory to the satellite. Indeed, memory is an essential component of system operation, and these common properties between all clients makes them particularly vulnerable to malicious acts. Also, know the number of memory access enables better scheduling and better predictability of a real time system. Our component allows the detection and interpretation of a potential attack or dependability problem. The work put in evidence the complementarity of the two proposed work. Indeed, the measure of the number of memory access that can be measured via a genetic algorithm whose shape is similar to the program seeking the worst execution time. So we can expand our work of the first part with the second
7

Testa, Mauro. "Mesures physiques pour la vérification du parcours des ions en hadronthérapie." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00556628.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur les mesures expérimentales des γ-prompts créés lors de la fragmentation du faisceau d'ions carbone en hadronthérapie. Deux expériences ont été effectuées aux laboratoires GANIL et GSI avec des ions 12C6+ de 95MeV/u et 305MeV/u irradiant une cible d'eau ou de PMMA. Dans les deux expériences une nette corrélation a été obtenue entre le parcours des ions carbone et le profil longitudinal des γ- prompts. Une des plus grandes difficultés de ces mesures vient de la discrimination entre le signal des γ-prompts (qui est corrélé avec le parcours des ions) et un important bruit de fond dû aux neutrons (non corrélé au parcours). Deux techniques sont employées pour effectuer la discrimination entre γ et neutrons: le temps de vol (TDV) et la discrimination par forme de signal (DFS). Le TDV a permis de démontrer la corrélation entre la production de γ-prompts et le parcours des ions. La DFS a fourni des informations précieuses pour la compréhension des caractéristiques des spectres en TDV. Dans ce travail on a démontré qu'un système de détection de γ-prompt collimaté, basé sur la technique du temps de vol, peut permettre une vérification en temps réel de la position du Pic de Bragg en conditions cliniques. Dans la dernière partie de la thèse, un travail de simulation a été effectué à l'aide du code de simulation Geant4 pour évaluer l'influence des principaux paramètres du design d'un dispositif de multi-détecteurs et multicollimateurs sur la résolution spatiale et l'efficacité atteignable par une Camera γ-Prompt. Plusieurs configurations géométriques ont été étudiées de façon systématique et les principales contraintes du design sont analysées.
8

Hautot, Félix. "Cartographie topographique et radiologique 3D en temps réel : acquisition, traitement, fusion des données et gestion des incertitudes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS141.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre des activités de maintenance, de décontamination et de démantèlement d’installations nucléaires, il est nécessaire d’effectuer un état des lieux précis des structures potentiellement contaminées ou activées, préalablement à toute intervention. Pour des raisons économiques, cet état des lieux doit être le plus souvent réalisé dans un temps court. Par ailleurs, il est généralement effectué par un opérateur, dont le temps d’exposition aux rayonnements doit être minimisé. Une des difficultés récurrentes réside dans l’éventuelle obsolescence ou de l’inexistence des plans, et dans le cas d’investigations en intérieur, de la perte de signaux GPS, et de la difficulté d’employer des systèmes de localisations externes et pré-calibrés. En effet, l’état des lieux est obtenu en couplant une cartographie de l’environnement avec des mesures nucléaires destinées à évaluer le niveau de radiations dans les lieux étudiés. Dans ce cadre, il est nécessaire de disposer d’un instrument portatif permettant de délivrer une cartographie radiologique et topographique la plus exhaustive possible des locaux afin d’établir des scénarii d’intervention. Afin de minimiser le temps d’exposition de l’opérateur, il est essentiel que les données acquises soient exploitables en temps réel. Ce type d’instrument doit permettre de procéder à des interventions complexes et doit fournir les meilleures prévisions dosimétriques afin d’optimiser les temps d’intervention lors du démantèlement ainsi que la gestion des éventuels déchets. À ces fins, Areva STMI a développé un système autonome de positionnement et de calcul de déplacement de sondes de mesures nucléaires en temps-réel basé sur les techniques de SLAM (Simultaneous Localization And Mapping). Ces développements ont conduit au dépôt d’un brevet. Ce travail de thèse a consisté à poursuive cette étude, et en particulier à décomposer l’ensemble des sous-systèmes, à poursuivre les développements inhérents à la fusion de données topographiques et radiologiques, à proposer des moyens d’optimisation, et à poser les bases d’une technique d’analyse, en temps réel, des incertitudes associées. Les méthodes SLAM utilisent l’odométrie visuelle qui peut reposer sur la capture d’images à l’aide de caméras RGB-D (caméras de type Microsoft Kinect®). Le processus d’acquisition délivre une carte tridimensionnelle contenant la position et l’orientation en 3D des appareils de mesure ainsi que les mesures elles-mêmes (débit de dose et spectrométrie gamma CZT) sans implication d’infrastructure préexistante. Par ailleurs, des méthodes de détections de sources basées sur les techniques d’interpolation spatiale et de rétroprojection de signal en « proche temps-réel » ont été développées. Ainsi, il est possible d’évaluer la position des sources radioactives dans l’environnement acquis. Il est ainsi possible de calculer rapidement des cartes de son état radiologique sans délai après l’acquisition. La dernière partie de ce travail a consisté à poser les bases d’une méthode originale pour l’estimation, en proche temps réel, de la précision des résultats issus de la chaîne d’acquisition et de traitement. Cette première approche nous a permis de formuler l’évaluation et la propagation des incertitudes tout au long de cette chaîne d’acquisition en temps réel, afin d’évaluer les méthodes que nous avons employées en termes de précision et de fiabilité de chaque acquisition réalisée. Enfin, une phase de benchmark permet d’estimer les résultats par rapport à des méthodes de référence
In the field of nuclear related activities such as maintenance, decontamination and dismantling status reports of potentially contaminated or activated elements are required beforehand. For economic reasons, this status report must be quickly performed. So as to be done quickly, the operation is realized by an operator, and his exposure time must be reduced as much as possible. Concerning indoor environments, it can be hard to make such investigations due to out-of-date plans or maps, loose of GPS signal, pre-positioning of underlying or precalibrated systems. Indeed, the premises status report is obtained by coupling nuclear measurements and topographical mapping. In such kind of situation it is necessary to have a portative instrument that delivers an exhaustive radiological and topographical mapping in order to deliver a decision support concerning the best intervention scenario to set up as fast as possible. Furthermore, and so as to reduce operator’s exposure time, such kind of method must be usable in real time. This method enables to proceed to complex intervention within the best radiological previsions for optimizing operator’s exposition time and waste management. In this goal, Areva STMI then developed a nuclear measurement probes autonomous positioning and motion estimation system based on visual SLAM (Simultaneous Localization And Mapping). These developments led to apply a patent. This thesis consisted in pursuing this survey, especially decomposing all the underlying systems, continuing the data fusion developments, proposing optimisations, and setting the basis of a real-time associated uncertainties analysis. SLAM based on visual odometry can be performed with RGB-D sensor (Microsoft Kinect®-like sensors). The acquisition process delivers a 3D map containing radiological sensors poses (positions and orientations in 3D) and measurements (dose rate and CZT gamma spectrometry) without any external signal or device. Moreover, a few radioactive sources localization algorithms based on geostatistics and back projection of measurements can also be performed in near real-time. It is then possible to evaluate the position of radioactive sources in the scene and compute fast radiological mappings of premises close to the acquisition. The last part of this work consisted in developing an original method for real-time evaluation of the process chain and results accuracies. The evaluation of uncertainties and their propagation along the acquisition and process chain in real-time provide feedbacks on employed methods for investigations or intervention processes and enable to evaluate the reliability of acquired data. Finally, a set of benchmarks has been performed in order to estimate the results quality by comparing them to reference methods
9

Maxim, Cristian. "Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066479/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération
In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements
10

Maxim, Cristian. "Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066479.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération
In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements
11

Nham, Toan. "Suivi in vivo et en temps réel du processus infectieux induit par Yersinia pestis." Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00731170.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Après trois pandémies majeures responsables de millions de morts, la peste n'a pas encore disparu. Cette maladie est causée par la bactérie Yersinia pestis, dont les mécanismes de virulence sont encore mal compris. Le suivi d'infection de la peste bubonique chez la souris, méthode classique pour étudier le processus infectieux, requiert beaucoup d'animaux et de temps pour obtenir des résultats significatifs. L'imagerie in vivo et en temps réel par bioluminescence permet de suivre la progression du pathogène au cours du processus infectieux en observant les animaux de façon non invasive. Nous avons transformé la souche virulente CO92 avec le plasmide pEm7-luxCDABE et confirmé la production de bioluminescence in vitro et in vivo. Nous avons pu quantifier la charge bactérienne dans plusieurs organes colonisés sans sacrifier l'animal et établir le schéma de progression de la bactérie au cours de la maladie. Après formation d'un foyer infectieux au site d'injection, la colonisation du ganglion lymphatique inguinal drainant ce site a été observée. Nous avons démontré que la bactérie suit un trajet direct du ganglion lymphatique inguinal au ganglion lymphatique axillaire. L'étape suivante est la colonisation des organes filtrant le sang, puis survient la septicémie dans les phases terminales de la mort. Nous avons établi que la forte variabilité dans le processus infectieux était due au temps pendant lequel la bactérie était contenue au site d'injection. À partir du moment où les ganglions lymphatiques sont colonisés, la cinétique de progression est à la fois régulière et rapide ; la septicémie survient dans les deux jours, suivie de près par la mort.
12

Cornille, Clara. "Incorporation du bismuth dans GaAs : compréhension et maîtrise par couplage de mesures en temps réel de courbure et diffraction électronique." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30331.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces dernières années, de nombreux efforts ont été fait pour étendre la gamme des dispositifs dans l'infrarouge. La filière GaAs est une des premières en lice, permettant facilement d'atteindre ces longueurs d'ondes, grâce à la formation de ternaires ou quaternaires associés. Dans ce cadre, l'étude des nouveaux alliages III-V comme le GaAsBi est particulièrement intéressante, grâce notamment à sa grande ingénierie de structure de bande, et de son splitting spin orbit. Il est également possible de le faire croître pseudomorphiquement, c'est-à-dire en accord de maille avec d'autres matériaux III-V. Son développement est donc très important et prometteur notamment pour des applications telles que les cellules solaires à 1eV, les photocathodes à 1,3µm ou encore les matériaux thermoélectriques ou la spintronique. Cependant, la croissance de ce ternaire représente un challenge dans son élaboration, et ses propriétés sont encore mal connues. En épitaxie par jets moléculaires, il est possible de contrôler avec précision tous les différents paramètres de croissance et ainsi maîtriser avec une grande précision la structure (paramètres de la couche) et les propriétés du matériau. L'ajout d'outils de mesure in-situ couplés à notre bâti nous a également permis d'avoir des informations précieuses sur le matériau et de pouvoir agir rétroactivement sur la croissance en cours. Ainsi, une étude poussée sur l'élaboration de cet alliage et de ses paramètres de croissance a permis de mettre en avant les différents mécanismes de croissances mis en jeu, ainsi que d'explorer une partie des propriétés de cet alliage, très dépendant de l'épaisseur et de la concentration en bismuth de la couche. L'association du suivi de la courbure, couplé à la diffraction électronique en incidence rasante et à la visualisation de la rugosité de surface nous a permis d'obtenir des résultats significatifs et originaux. De plus, des techniques de diffraction de rayons X, photoluminescence, spectroscopie Raman, effet Hall et microscopie électronique en transmission ont également été utilisées pour étudier les propriétés structurales, optiques et électroniques de ce nouvel alliage
Research has been needed in large infrared devices, especially around 1.3µm in GaAs field. GaAsBi and derived alloys offer a large band structure engineering, make them a good candidate for 1eV solar cells, 1.3µm photocathodes or thermoelectric materials and spintronic.Though, the epitaxy of those III-V alloys is a challenge. In fact, they have a high lattice mismatch and bismuth incorporation is proved highly dependant of the growth conditions. First, we will present the context of our study : we will detail their required properties for applications, and place ourseves amoung literature. We will also describe the exploited techniques. Precise growth parameters can be selected by molecular beam epitaxy and they determine the structual characteristics of our material. We also have an original technique of real time coupling curvature measurement exploited with synchronized electronic diffraction. Bismuth incorporation study was made with those informations, obtained by varying growth conditions. Ex-situ techniques as X-Rays diffraction, Raman spectroscopy, Hall effect and Transmission Electronic Microscopy were also used to confort our original results. Then, we explained the different experimental studies we made on growth and caracterisation of those alloys. We pointed out a change in surface reconstruction during the growth, from the (1x3) reconstruction to the (2x1). We started to study the bismuth incorporation for the 2 surface reconstructions during growth, varying growth conditions : substrate temperature and elements fluxes. We exhibit a higher incorporation with the (1x3) reconstruction, and increasing for higher V/III flux ratio. Those conditions gave us growing GaAsBi layers with 2 different bismuth concentration. Then, we demonstrated the thermal activation of surface reconstruction transition, with the apparition of a surface stress, increasing with V/III ratios. Thirdly, we also validate our results on bismuth content by comparing their values with X ray diffraction. We applied this technique to elaborate (Ga)AlAsBi layers. We proved that optimize growth conditions are different from those found for GaAsBi. We obtained content layers up to 3% of aluminium. Thanks to his work, we obtained a comprehensive knowledge of bismuth incorporation in GaAs, and we developed it to consider further perspective for GaAsBi
13

Soury, Ayoub. "Approches de sûreté de fonctionnement sur Ethernet temps réel : application à une nouvelle génération d’ascenseur." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception d’un réseau de communication de sécurité basée sur l’Ethernet temps réel répondant aux exigences de la norme PESSRAL, dérivée de l’IEC 61508, constitue la base de notre travail. Afin d’atteindre cet objectif, nous mettons en oeuvre des mécanismes permettant de réduire la probabilité d’erreur et d’atteindre les niveaux d’intégrité de sécurité (SIL) par l’utilisation d’un système électronique déterministe. Avec un seul canal de communication, notre système doit être capable d’intégrer des fonctions critiques et non critiques sans remettre en cause la certification du système.Lors de cet engagement nous proposons un système de communication industrielle basé sur l’Ethernet temps réel. Les interfaces de communication proposées répondent aux exigences de réactivité, de déterminisme pour garantir les contraintes temporelles imposées par le processus et la norme. Pour assurer la sécurité fonctionnelle des interfaces, nous avons proposé une surcouche de type "safety" qui implémente des fonctions de sécurité selon le concept du canal noir défini dans l’IEC 61508. En nous basant sur ces propriétés, nous avons réussi à classifier les solutions temps réel à base d’Ethernet en trois classes en fonction du temps de cycle. La surcouche "safety", basée sur la redondance de données, a permis de renoncer à la solution de redondance physique. Cette redondance de données duplique le temps de cycle initial du réseau qui satisfait néanmoins aux conditions de sécurité et temporelles de la norme
The design of a communication network with a real-time Ethernet-based security that meets the requirements of the PESSRAL standard, derived from IEC 61508, is the basis of our work. In order to achieve this goal, we implement mechanisms reducing the residual error probability and achieving Safety Integrity Levels (SIL) via a deterministic electronic system. Through a single communication channel, our system must be able to integrate critical and non-critical functions without compromising the system certification.According to this commitment, we suggest an industrial communication system based on real-time Ethernet. The proposed communication interfaces meet the requirements of responsiveness and determinism in order to guarantee the temporal constraints imposed by the process and the standard. To ensure the functional safety of the interfaces, we have proposed a "safety" overlay that implements security functions according to the concept of the black channel defined in IEC 61508. Based on these properties, we have managed to classify the Ethernet-based real-time solutions into three classes in terms of cycle time. The overlay "safety", based on the redundancy of data, made it possible to give up the solution of physical redundancy. This data redundancy duplicates the initial cycle time of the network, which nonetheless satisfies the security and time conditions of the standard
14

Taleb, Miassa. "Exploitation des mesures électriques en vue de la surveillance et du diagnostic en temps réel des piles à combustible pour application transport automobile." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLC010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte énergétique mondial actuel, les piles à combustible à membrane échangeuse de protons constituent une solution prometteuse au futur développement d'une nouvelle génération de véhicules électrifiés, permettant une autonomie plus importante que celle des véhicules électrifiés à batteries. Néanmoins, le développement à grand échelle des piles à combustible reste à ce jour limité en raison de certains verrous technologiques, tel que la gestion de l'eau. Afin de permettre une production de masse des piles à combustible, de tels problèmes doivent être résolus. Plusieurs axes de travail peuvent être envisagés, tant sur les aspects matériels sur la structure de la pile, que du point de vue de la commande en développant des outils algorithmiques permettant le suivi de l'état de fonctionnement du système en vue de détecter les défaillances éventuelles, ou la dégradation des conditions de fonctionnement, et permettre ainsi d'y apporter une solution au moyen du système de commande ou de supervision.Les travaux de cette thèse s'inscrivent dans cette seconde approche et portent plus particulièrement sur la mise en évidence des phénomènes d'engorgement ou d'asséchement du cœur de pile afin de diagnostiquer les éventuels problèmes d'hydratation conduisant à la réduction du rendement, à la diminution des performances ou encore à un vieillissement prématuré.Les méthodes développées au cours de ces travaux se fondent sur des stratégies de suivi de paramètres significatifs d'un modèle de pile dont les évolutions, comparativement à des valeurs de référence, sont caractéristiques de l'état hydratation du cœur de pile. Le suivi en temps réel de ces paramètres permet ainsi de mettre en évidence les phénomènes d'engorgement ou d'asséchement du cœur de pile.Les modèles adoptés pour ces travaux font appel à une représentation de l'impédance électrique de la pile.Ainsi, en suivant cette approche, la stratégie adoptée se fonde alors sur le développement de deux modèles de type circuit électrique : un modèle d'ordre entier puis un modèle d'ordre fractionnaire. Cette deuxième formulation des modèles, plus proche de la réalité physique des phénomènes de transports se produisant au cœur de pile, permet une meilleure représentation de la pile tant du point de vue temporel que fréquentiel. En effet, les analyses effectuées en utilisant des résultats expérimentaux obtenus au moyen d'une cellule de pile (surface active de 100 cm2 conçue par la société UBzM) ont permis de valider que le modèle d'ordre fractionnaire, en contrepartie d'une augmentation de la complexité, permet de mieux reproduire d'une part les résultats temporels de la pile (suivi de tension pour un profil de courant donnée), d'autre part une meilleure approximation de l'impédance mesurée.Des méthodes d'identification paramétrique, conventionnelles et adaptées aux systèmes d'ordre fractionnaire, sont ensuite utilisées afin d’extraire les paramètres des modèles développés à partir de données expérimentales temporelles (tension/courant de la pile), ou fréquentielles (spectroscopie d'impédance). Une étude de sensibilité permet alors de définir les paramètres les plus indicatifs des phénomènes d'engorgement et d'assèchement. L'évolution de ces paramètres, associés à la tension et le spectre d'impédance de la pile, sont alors combinés afin de construire une stratégie de diagnostic de l’engorgement et de l’asséchement du cœur de pile
In the current global energy context, proton exchange membrane fuel cells represent a promising solution to the future development of a new generation of electrified vehicles, allowing greater autonomy than electrified vehicles using batteries.Nevertheless, the large-scale development of fuel cells remains limited due to some technological locks, such as water management. To enable mass production of fuel cells, such problems must be solved. Several working axes may be envisaged both on the hardware aspects of the fuel cell structure, and from the point of view of control, by developing algorithmic tools for monitoring the operating state of the system to detect any failures, or degradations that may occur.The work of this thesis falls within this second approach and focuses specifically on the identification of drying and drowning phenomena which can appear in a fuel cell, to diagnose any moisture problems leading to yield reduction.The methods developed in this work are based on the monitoring of relevant parameters of the fuel cell model which changes, compared to reference values, are characteristic of the state of the fuel cell hydration.The real-time monitoring of these parameters can highlight the drying and drowning phenomena.Adopted models for this work are based on a representation of the electrical impedance of the fuel cell.Thus, following this approach, the adopted strategy is then based on the development of two electrical models: an integer order model and a fractional order model. It appears that the second model formulation is closer to the physical reality of transport phenomena occurring in the fuel cell. It allows a better representation of the fuel cell behavior in time and frequency domain. Indeed, the analyzes based on experimental results performed using a single fuel cell (100 cm2 active area designed by UBzM company) have validated that the fractional order model, in return for an increase of complexity, allows better reproduce, in the one hand of the fuel cell time-series voltage response (voltage monitoring for a given current profile), on the other hand a better approximation of the measured impedance. Conventional and of fractional order parametric identification methods are then used to extract the model’s parameters from time-series experimental data (voltage / current from the battery) or frequency data (impedance spectroscopy).A sensitivity analysis allows then the defining of the most indicative parameters of the drowning and drying phenomena. The evolution of these parameters associated with the voltage and impedance spectrum of the fuel cell are then combined to build a diagnosis strategy of the fuel cell water management
15

Thierry, Philippe. "Systèmes véhiculaires à domaines de sécurité et de criticité multiples : une passerelle systronique temps réel." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1102/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nos jours, les véhicules intègrent de plus en plus de systèmes interconnectés. Ces systèmes ont des fonctions aussi nombreuses que complexes et sont soumis à des contraintes de sureté de fonctionnement (dont le temps réel) mais également de plus en plus de sécurité. Avec l'apparition des véhicules connectés, il devient nécessaire de faire communiquer ces différents systèmes, tant pour les gérer au niveau véhiculaire que potentiellement à distance. Faire communiquer ces différents réseaux, a fortiori dans les véhicules militaires, implique la prise en compte de diverses contraintes. Ces contraintes nécessitent d'être traitées par des éléments en coupure entre les différents systèmes. Un tel élément est alors en charge de protéger ces derniers en termes de sûreté de fonctionnement et de sécurité mais doit également assurer un transfert efficace et borné de l'information. Dans cette thèse, nous avons proposé une architecture logicielle de passerelle permettant de répondre à ces différentes contraintes et d'assurer ainsi l'interconnexion de tous ces systèmes. La solution se présente comme un framework permettant d'intégrer divers modules sur une architecture partitionnée et sûre, afin de pouvoir répondre à divers besoins spécifiques aux systèmes véhiculaires
Nowadays, vehicular systems are composed of more and more interconnected systems. Those systems manage a lot of complex functions and must comply with various safety-critical requirements (such as real-time) but also more and more with security requirements. With the new connected vehicles, it is necessary to make these various systems communicate, in order to manage locally or remotely the overall vetronic system. Make these systems communicate, moreover in military vehicles, implies to support various constraints. Theses constraints need to be supported by specific elements, used as gateways between each vehicle system needing external communication. This gateway has to protect each system in term of safety and security, but also has to guarantee an efficient upper-bounded transfer between them. In this thesis, we have proposed a software architecture for these gateways, compliant with the various vehicular security and safety requirements. The solution is proposed as a framework, supporting a modular configuration and able to aggregate various modules on a partitioned software architecture. Such an aggregation is then able to respond to the various vehicular specific needs such as security and real-time
16

Fontan, Benjamin. "Méthodologie de conception de systèmes temps réel et distribués en contexte UML/SysML." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00258430.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En dépit de ses treize diagrammes, le langage UML (Unified Modeling Language) normalisé par l'OMG (Object Management Group) n'offre aucune facilité particulière pour appréhender convenablement la phase de traitement des exigences qui démarre le cycle de développement d'un système temps réel. La normalisation de SysML et des diagrammes d'exigences ouvre des perspectives qui ne sauraient faire oublier le manque de support méthodologique dont souffrent UML et SysML. Fort de ce constat, les travaux exposés dans ce mémoire contribuent au développement d'un volet " méthodologie " pour des profils UML temps réel qui couvrent les phases amont (traitement des d'exigences - analyse - conception) du cycle de développement des systèmes temps réel et distribués en donnant une place prépondérante à la vérification formelle des exigences temporelles. La méthodologie proposée est instanciée sur le profil TURTLE (Timed UML and RT-LOTOS Environment). Les exigences non-fonctionnelles temporelles sont décrites au moyen de diagrammes d'exigences SysML étendus par un langage visuel de type " chronogrammes " (TRDD = Timing Requirement Description Diagram). La formulation d'exigences temporelles sert de point de départ à la génération automatique d'observateurs dédiés à la vérification de ces exigences. Décrites par des méta-modèles UML et des définitions formelles, les contributions présentées dans ce mémoire ont vocation à être utilisées hors du périmètre de TURTLE. L'approche proposée a été appliquée à la vérification de protocoles de communication de groupes sécurisée (projet RNRT-SAFECAST).
17

Krasnowski, Piotr. "Codage conjoint source-chiffrement-canal pour les canaux de communication vocaux sécurisés en temps réel." Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4029.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les risques croissants de violation de la vie privée et d’espionnage associés à la forte croissance des communications mobiles ont ravivé l’intérêt du concept originel de chiffrement de la parole sous forme de signaux audio transmis sur des canaux vocaux non spécifiques. Les méthodes habituelles utilisées pour la transmission de données cryptées par téléphonie analogique se sont révélées inadaptées pour les communications vocales modernes (réseaux cellulaires, VoIP) avec leurs algorithmes de compression de la voix, de détection d’activité vocale et de suppression adaptative du bruit. La faible bande passante disponible, les distorsions non linéaires des canaux et les phénomènes d’évanouissements du signal motivent l’introduction d’une approche conjointe du codage et du chiffrement de la parole adaptée aux canaux vocauxbruités modernes.Dans cette thèse sont développés, analysés et validés divers schémas sûrs et efficaces pour le chiffrement et la transmission de la parole en temps réel pour les canaux vocaux modernes. En plus du chiffrement de la parole, cette étude couvre les aspects sécurité et algorithmique de l’ensemble du système de communication vocale - aspects critiques d’un point de vue industriel. La thèse détaille un système de chiffrement de la parole associé à un codage avec perte, par brouillage aléatoire des paramètres vocaux (volume, hauteur, timbre) de certaines représentations de la parole. En résulte un pseudo-signal vocal chiffré robuste aux erreurs ajoutées par les canaux de transmission modernes. La technique de chiffrement repose sur l’introduction de translations et rotations aléatoires sur des maillages de tores plats associés à des codes sphériques. Face aux erreurs de transmission, le schéma déchiffre approximativement les paramètres vocaux et reconstruit, grâce à un synthétiseur vocal utilisant un réseau de neurones par apprentissage, un signal de parole perceptuellement très proche du signal d’origine. Le dispositif expérimental a été validé par la transmission de signaux de type pseudo-voix chiffrés sur un canal vocal réel. Les signaux de parole déchiffrés ont été favorablement notés lors d’une évaluation subjective de qualité incluant environ 40 participants.La thèse décrit également une nouvelle technique de transmission de données sur canaux vocaux en utilisant un dictionnaire d’ondes harmoniques courtes représentant les mots d’un code quaternaire. La technique fournit un débit binaire variable allant jusqu’à 6.4 kbps et a été testée avec succès sur différents canaux vocaux réels. Enfin, est présenté aussi un protocole d’échange de clés cryptographiques dédié pour les canaux vocaux authentifiés par signatures et vérification vocale. La sécurité du protocole a été vérifiée sous forme d’un modèle symbolique par l’assistant de preuve formelle Tamarin.L’étude conclut qu’une communication vocale sécurisée sur des canaux vocaux numériques réels est techniquement et de fait viable lorsque les canaux vocaux utilisés pour la communication sont stables et ne présentent que des distorsions prévisibles
The growing risk of privacy violation and espionage associated with the rapid spread of mobile communications renewed interest in the original concept of sending encrypted voice as audio signal over arbitrary voice channels. The usual methods used for encrypted data transmission over analog telephony turned out to be inadequate for modern vocal links (cellular networks, VoIP) equipped with voice compression, voice activity detection, and adaptive noise suppression algorithms. The limited available bandwidth, nonlinear channel distortion, and signal fadings motivate the investigation of a dedicated, joint approach for speech encodingand encryption adapted to modern noisy voice channels.This thesis aims to develop, analyze, and validate secure and efficient schemes for real-time speech encryption and transmission via modern voice channels. In addition to speech encryption, this study covers the security and operational aspects of the whole voice communication system, as this is relevant from an industrial perspective.The thesis introduces a joint speech encryption scheme with lossy encoding, which randomly scrambles the vocal parameters of some speech representation (loudness, pitch, timbre) and outputs an encrypted pseudo-voice signal robust against channel noise. The enciphering technique is based on random translations and random rotations using lattices and spherical codes on flat tori. Against transmission errors, the scheme decrypts the vocal parameters approximately and reconstructs a perceptually analogous speech signal with the help of a trained neural-based voice synthesizer. The experimental setup was validated by sending encrypted pseudo-voice over a real voice channel, and the decrypted speech was tested using subjective quality assessment by a group of about 40 participants.Furthermore, the thesis describes a new technique for sending data over voice channels that relies on short harmonic waveforms representing quaternary codewords. This technique achieves a variable bitrate up to 6.4 kbps and has been successfully tested over various real voice channels. Finally, the work considers a dedicated cryptographic key exchange protocol over voice channels authenticated by signatures and a vocal verification. The protocol security has been verified in a symbolic model using Tamarin Prover.The study concludes that secure voice communication over real digital voice channels is technically viable when the voice channels used for communication are stable and introduce distortion in a predictable manner.stabintroduce distortion in a predictable manner
18

Jahanpour, Emilie. "Développement et mise en œuvre d’une approche psycho-physio-acoustique pour le contrôle temps réel de l’impact du bruit en cabine d’hélicoptère." Thesis, Toulouse, ISAE, 2019. http://www.theses.fr/2019ESAE0045.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le bruit environnemental a des effets bien connus sur l’humain. A court terme, il peut être source de stress, de fatigue, ou de déconcentration. Pour autant, la littérature montre des effets complexes, il peut par exemple être source de plaisir et de motivation. Dans le domaine de l’acoustique hélicoptère, le bruit en cabine est particulier parce qu’il possède une large gamme de fréquence (10-10000Hz). Le bruit de la boîte de transmission principale est particulièrement désagréable parce qu'il s'agit d'un bruit de type tonal dans des gammes de fréquences (500-3000 Hz) proches de la parole (200-6000Hz) auxquelles l’humain est très sensible. Les passagers émettent le désir de pouvoir travailler, lire et se reposer sans être gêné, ainsi, un enjeu pour les constructeurs consiste à améliorer le confort sonore en cabine. Pour réduire ce bruit, une solution est d’utiliser le contrôle actif. Airbus Helicopters a développé un système d’appui-tête intégrant des haut-parleurs et des microphones permettant de générer une zone autour de la tête des passagers dans laquelle le contrôle actif est réalisé. L’ajout d’un algorithme multi-tonalité, visant à filtrer uniquement les tonalités émergeantes, permet un gain allant jusqu’à 4 dB(A), ce qui représente une réduction de l’inconfort de 15%. L’objectif de cette thèse était de définir s’il est pertinent de filtrer toutes ces tonalités en fonction de l’activité courante du passager. Autrement dit, cette thèse visait à mieux cerner l’impact de différents bruits de cabine d’hélicoptère sur les performances cognitives et le confort des passagers, grâce à des mesures subjectives, comportementales (performance, oculométrie) et psychophysiologiques (électroencéphalographie, électrocardiographie). Afin de simuler l’activité d’un passager, trois tâches ont été sélectionnées : une tâche de « travail » (combinant calcul mental, raisonnement et mémoire de travail), une tâche de lecture et enfin une tâche de repos. Les résultats ont été comparés avec ceux obtenus par l’échelle de confort acoustique développée par Airbus Helicopters. Nous retrouvons une bonne correspondance entre cette échelle et nos résultats. Par ailleurs, nos résultats comportementaux et psychophysiologiques font apparaitre qu’une exposition courte aux sons d’hélicoptères n’a généralement que très peu d’effets délétères sur les performances aux tâches et ne crée qu’une faible augmentation du niveau de stress, observable par l’activité cérébrale et cardiaque. Cependant, le ressenti subjectif est le plus impacté par le bruit, avec un ressenti négatif associé aux bruits ayant le plus de tonalités
Environmental noise has well-known effects on humans. In the short term, it can be a source of stress, fatigue, or decreased alertness. However, the literature shows complex effects, it can, for example, be a source of pleasure and motivation. In the field of helicopter acoustics, cabin noise is particular because it has a wide frequency range (10-10000Hz). The noise of the main transmission gearbox is particularly unpleasant because it is tonal noise in frequency ranges (500-3000 Hz) close to speech (200-6000 Hz) to which humans are very sensitive. Passengers want to be able to work, read and rest without being annoyed, so one challenge for manufacturers is to improve sound comfort in the cabin. To reduce this noise, one solution is to use active noise control. Airbus Helicopters has developed a headrest system integrating speakers and microphones to generate an area around the passenger's head in which active noise control is performed. The addition of a multi-tone algorithm, designed to filter only emerging tones, allows a gain up to 4 dB(A), which represents a 15% reduction in discomfort. The purpose of this thesis was to define whether it is relevant to filter all these tones according to the passenger's current activity. In other words, this thesis aimed to better understand the impact of different helicopter cabin noises on cognitive performance and passenger comfort through subjective, behavioural (performance, oculometry) and psychophysiological (electroencephalography, electrocardiography) measurements. In order to simulate a passenger's activity, three tasks were selected: a "working" task (combining mental calculation, reasoning, and working memory), a reading task and finally a resting task. The results were compared with those obtained by the acoustic comfort scale developed by Airbus Helicopters. We find a good correspondence between this scale and our results. In addition, our behavioural and psychophysiological results show that, generally short exposure to helicopter noises has limited deleterious effects on task performance and creates only a slight increase in stress level, observable through the cerebral and cardiac activity. However, the subjective feeling is most impacted by noise, with a negative feeling associated to the noises with the most tones
19

Augé, Bruno. "Modélisation, étude, réalisation d'un interféromètre in-situ, temps réel destiné aux mesures dimensionnelles des puces électroniques submicroniques pendant un procédé de gravure ou de dépot." Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Auge.Bruno.SMZ9728.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès permanents de l'industrie des semi-conducteurs sont liés pour l'essentiel à l'accroissement continu des capacités d'intégration, à la plus petite taille des circuits de base et à un plus grand diamètre des tranches de silicium. Pour rester en compétition, il faut absolument optimiser les performances des lignes de production des circuits submicroniques avec des procédés complexes qui sont difficiles à maitriser. On comprend dans ces conditions, que le contrôle in-situ et en temps réel, des épaisseurs des circuits pendant des opérations de gravure ou de dépôt donne une sérieuse avance sur les concurrents. Parmi les méthodes optiques in situ, non intrusives, non destructives, l'interférométrie spectroscopique, sous incidence normale, permet la mesure de l'épaisseur des couches présentes sur les tranches de silicium au cours de la fabrication. Cette étude s'est déroulée en deux parties : le principe de la mesure et le contrôle de la fabrication. Pour le principe de la mesure, nous avons étudié les propriétés optiques des systèmes multicouches à l'aide du formalisme d'Abélès. Pour le contrôle de la fabrication, nous avons étudié et réalisé un instrument permettant de positionner la tête interférométrique sur des sites de mesures relativement restreints présents sur les tranches de silicium. Pour cela, il faut d'abord reconnaitre le site, puis positionner la caméra avec une précision en rapport avec la dimension du site. Un module imagerie, comprenant en particulier la recherche d'un motif, et la gestion d'une table xy motorisée ont été étudiés et intégrés au module de calcul d'épaisseur
Permanent progress in the semiconductor industry is essentially linked to a continous rise in integration capacity, to smaller circuit dimensions and larger silicon wafer diameters. In order to remain competitive, the performance of submicron device manufacturing lines employing complex process which are difficult to master has to be optimised. It is understandable under these conditions that in-situ and real time control of circuit thickness during the etch or deposition operation gives a serious advantage over competitors. Among the optical in-situ non intrusive and non destructive methods, spectroscopic interferometry at normal incidence allows the measurement of the thickness of layers present on the silicon wafer during manufacturing. This study has been performed in two parts : the measurement principle and manufacturing control. For the measurement principle, the optical properties of multi-layer system have been studied using the Abeles formalism. For the manufacturing control, we conceived and built an instrument allowing to position the interferometric head relativity limited measurement sites located on the silicon wafer. To do this, the site has to be recognized and the camera be positioned with a precision adapted to the site dimensions. An imaging module including in particular a pattern recognition routine and the steering of a motorized xy table, have been studied and integrated into the unit of layer thickness calculation
20

Moyal, Pascal. "Contributions à l'étude des files d'attente avec clients impatients." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001340.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement du temps-réel est aujourd'hui une préoccupation majeure dans la conception des réseaux de télécommunication et des réseaux informatiques. Toute donnée doit alors avoir une "durée de vie" très limitée dans le système, puisque son traitement doit être instantané. Pour rendre compte de cette contrainte dans la représentation d'un nœud du réseau, on enrichit le modèle classique de la file d'attente d'un nouveau paramètre: le délai d'exécution des tâches. On parlera donc de file d'attente avec clients impatients: ils entrent dans le magasin avec une patience limitée et le quittent si leur délai expire avant d'avoir atteint un serveur. Nous étudions des cas où la discipline de service dépend du délai des clients ( EDF: on sert le plus pressé, LDF: le moins pressé...). Ceux-ci présentent une dynamique instable, ce qui en complique notoirement la description markovienne. Pour un système général sous toute discipline de service, un schéma de récurrence arrière aux instants de fins de service nous permet de prouver sous Palm l'Existence/Unicité du régime stationnaire, et de donner la condition de récurrence. Nous prouvons dans le même cadre par des techniques de couplage qu'EDF est la discipline optimale et que LDF est la pire pour la probabilité de perte à l'équilibre P et donnons une borne du gain d'EDF en terme de P. Nous calculons en outre des encadrements de P sous EDF dans certains cas. Nous proposons ensuite une description markovienne de la file d'attente avec clients impatients par le processus à valeur mesures ponctuelles simples où chaque masse de Dirac représente le délai résiduel d'un client en attente ou déjà perdu. Nous donnons la limite fluide d'une suite de renormalisations de ce processus en espace, temps et amplitude, ainsi qu'un théorème central limite fonctionnel établissant la convergence en loi de l'écart à la limite vers un processus de diffusion . La limite fluide, à trajectoires continues et déterministes, s'écrit explicitement comme l'unique solution d'une équation intégrale dans l'espace des processus à valeurs distributions tempérées. Les convergences s'obtiennent par passage aux fonctions tests du dual, et par des méthodes de compacité/unicité. Nous appliquons ces résultats à l'estimation asymptotique des processus de congestion et de perte sous EDF et FIFO, et au système délai pur.
21

Offermann, Alexis. "Conception et validation d’un robot apte à effectuer des mesures sur ouvrage d’art." Thesis, Compiègne, 2021. http://www.theses.fr/2021COMP2603.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’inscrit dans le domaine de la robotique pour l’analyse de la pathologie des structures pour le bâtiment et travaux publics. La réalisation de relevés photographiques est d’ores et déjà une technique largement utilisée pour faciliter le diagnostic des ouvrages. On cherche dans cette thèse à développer davantage la technique de relevé en permettant de faire un diagnostic au contact de la structure des ouvrages (allant d’un pont à une église en passant par les hôpitaux et écoles). La présentation de différentes solutions technologiques sera faite et permettra de faire un choix d’innovation technologique à investir. Le choix de solution retenu consiste à développer un drone à bras inclinable capable d’emporter la charge désirée (l’outil de mesure) sur la paroi. Cette étude pose un challenge à la fois sur le modèle mécanique non conventionnel mais également sur la conception d’un robot complexe. Une étude approfondie des lois de commande sera menée,implémentée et comparée dans cet ouvrage. Enfin, une plateforme informatique particulière a également été développée permettant le test rapide des différents algorithmes. Cette plateforme étant extrêmement versatile, elle pourra être réutilisée dans des travaux futurs. Enfin, ces travaux montrent le bon fonctionnement du vecteur drone pour réaliser la tâche qui lui incombe
This PhD. applies in the field of robotics for building inspection. Buildings are understood here as huge constructions such as bridges or churches. Using photogrammetry to analyses the structure of these kind of buildings is nowadays a common technique. To extend the analysis methodologies, we propose in this document to imagine a way to bring tools directly in contact with the buildings. Multiple solution possibilities are presented for a final choice. The chosen solution consists of designing a drone able to tilt its arms to bring the building inspection tool directly onto the wall of the construction. This leads to a double challenge. Firstly, the mechanical part of designing such a complex and non-common drone. Secondly,the development and real time testing of the control algorithm. Eventually, this manuscript proposes to use a particular software architecture joining fast experimentations and validation of the control laws. This platform being very versatile, it is also possible to consider re-using it for different applications in future works. The experimentations reveal good results, promoting the usage of the drone as a carrying vector to bring the tools onto the construction
22

Palisse, Aurélien. "Analyse et détection de logiciels de rançon." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S003/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse s'intéresse aux logiciels de rançon, présente une plateforme d'analyse automatique et propose des contre-mesures. Nos contre-mesures sont conçues pour être temps réel et déployées sur une machine, c'est-à-dire ''End-Hosts''. En 2013 les logiciels de rançon font de nouveau parler d'eux, pour finalement devenir une des menaces les plus sérieuses à partir de 2015. Un état de l'art détaillé des contre-mesures existantes est fourni. On peut ainsi situer les contributions de cette thèse par rapport à la littérature. Nous présentons également une plateforme d'analyse automatique de logiciels malveillants composée de machines nues. L'objectif est de ne pas altérer le comportement des échantillons analysés. Une première contre-mesure basée sur l'utilisation d'une librairie cryptographique par les logiciels de rançon est proposée. Celle-ci peut être facilement contournée. Nous proposons donc une seconde contre-mesure générique et agnostique. Cette fois, des indicateurs de compromission sont utilisés pour analyser le comportement des processus sur le système de fichiers. Nous détaillons comment de manière empirique nous avons paramétré cette contre-mesure pour la rendre~: utilisable et efficace. Un des challenges de cette thèse étant de faire concilier performance, taux de détection et un faible taux de faux positifs. Enfin, les résultats d'une expérience utilisateur sont présentés. Cette expérience analyse le comportement des utilisateurs face à une menace. En dernière partie, nous proposons des améliorations à nos contributions mais aussi des pistes à explorer
This phD thesis takes a look at ransomware, presents an autonomous malware analysis platform and proposes countermeasures against these types of attacks. Our countermeasures are real-time and are deployed on a machine (i.e., end-hosts). In 2013, the ransomware become a hot subject of discussion again, before becoming one of the biggest cyberthreats beginning of 2015. A detailed state of the art for existing countermeasures is included in this thesis. This state of the art will help evaluate the contribution of this thesis in regards to the existing current publications. We will also present an autonomous malware analysis platform composed of bare-metal machines. Our aim is to avoid altering the behaviour of analysed samples. A first countermeasure based on the use of a cryptographic library is proposed, however it can easily be bypassed. It is why we propose a second generic and agnostic countermeasure. This time, compromission indicators are used to analyse the behaviour of process on the file system. We explain how we configured this countermeasure in an empiric way to make it useable and effective. One of the challenge of this thesis is to collate performance, detection rate and a small amount of false positive. To finish, results from a user experience are presented. This experience analyses the user's behaviour when faced with a threat. In the final part, I propose ways to enhance our contributions but also other avenues that could be explored
23

Terroir, Jonathan. "Mesures, modélisation et synthèse des transitions entre notes et des sources de bruit dans les instruments à anche simple." Phd thesis, Aix-Marseille 2, 2006. http://theses.univ-amu.fr.lama.univ-amu.fr/2006AIX22087.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Vnuk, Edouard. "Développement d'outils d'analyse de fluorescence appliqués au génotypage sur puce à ADN : de l'acquisition à l'analyse d'images, mesures de cinétique d'hybridation en temps réel basées sur le transfert d'énergie." Ecully, Ecole centrale de Lyon, 2005. http://bibli.ec-lyon.fr/exl-doc/evnuk.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le cadre de ces travaux était d'améliorer la fiabilité des puces à ADN de typage sans augmenter le nombre de répétition des mesures. A partir d'une réflexion sur le phénomène de fluorescence à la surface d'une puce, nous avons développé un programme permettant de segmenter les signaux de fluorescence et une stratégie de conception et de validation empirique de puces dont la mise en place a été complétée par un logiciel liant les différents outils du laboratoire. Pour mieux comprendre les phénomènes d'hybridation à l'interface liquide/solide, nous avons créé un procédé de détection de l'hybridation sur support solide basé sur le FRET ("Fluorescence Resonance Energy Transfer"). Les résultats ont montré que nous étions capables : de mesurer et d'analyser des cinétiques d'hybridations de manière spécifique, d'accéder localement la densité relative en sondes immobilisées et au rendement d'hybridation, de contrôler la qualité de chaque plot
The scope of this work was to improve the reliability of DNA microarrays without to increase the number of measurement repetitions. A software, allowing to analyze signals of fluorescence and set up a general strategy of conception of DNA microarrays, was developed from physical considerations about fluorescence at the surface of microarrays. Its implementation was completed by a software providing a link between the various tools of our laboratory. In order to further understand the phenomena of hybridization at solid/liquid interface, we have developed a methodology aimed at detecting hybridization on microarrays using Fluorescence Resonance Energy Transfer (FRET). The results showed that we can be : measured and analysed kinetics of specific hybridization, given information on the local relative density of probes imobilized and on hybridization yield, controlled the quality for individual spots
25

Bel, Hadj Aissa Nadia. "Maîtrise du temps d'exécution de logiciels déployés dans des dispositifs personnels de confiance." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10133/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La prolifération de petits équipements ouverts tels que les dispositifs personnels de confiance a favorisé l'essor des environnements d'exécution dynamiquement adaptables. Ainsi, de nouveaux logiciels peuvent être déployés à la volée après que les équipements soient délivrés à leurs porteurs. Par nos travaux, nous aspirons à garantir que chaque nouveau logiciel, dont le déploiement aboutit, est en mesure de délivrer les réponses aux requêtes qui lui sont adressées dans un délai maximal préalablement établi. Les garanties apportées sont cruciales tant en terme de sûreté de fonctionnement que de sécurité. À cet effet, nous avons proposé de distribuer le calcul du temps d'exécution au pire cas à la manière des approches de codes porteurs de preuve. Le fournisseur de code se voit attribuer les calculs gourmands en ressources matérielles ne supposant aucune connaissance préalable de l'environnement d'exécution sur lequel s'exécutera son logiciel, en l'occurrence la détermination des bornes des boucles. Quant au consommateur, il vérifie grâce à la preuve les bornes inférées par le fournisseur et calcule le temps d'exécution au pire cas. Nous avons évalué expérimentalement le bien-fondé de notre démarche sur une architecture matérielle et logicielle répondant aux exigences des dispositifs personnels de confiance. Enfin, nous nous sommes préoccupés du cas où plusieurs logiciels, émanant d'entité différentes, coexistent. Nous avons mis l'accent sur l'impact de l'interaction entre ces logiciels sur les garanties préalablement apportées par le système sur le temps d'exécution au pire cas et nous avons ébauché une solution basée sur les contrats pour maintenir ces garanties
The proliferation of small and open objects such as personal trusted devices has encouraged the spread of dynamically adaptable runtime environments. Thus, new software can be deployed on the fly after the devices are delivered to their holders. Through our work, we aim to ensure that each new software, whose deployment is successful, will be able to deliver responses within a maximum delay previously established. These guarantees are crucial in terms of safety and security. To this end, we propose to distribute the computation of worst case execution time. Our solution embraces a proof carrying code approach making distinction between a powerful but untrusted computer used to produce the code, and a safe but resource constrained code consumer. The producer does not assume any prior knowledge of the runtime environment on which its software will be executed. The code is statically analyzed to extract loop bounds and a proof containing this information is joint to the software. By a straightforward inspection of the code, the consumer can verify the validity of the proof and compute the global worst case execution time. We experimentally validate our approach on a hardware and software architecture which meets the requirements of trusted personal devices. Finally, we address the challenges raised when software from different service providers potentially untrusted can coexist and interact in a single device. We focus on the impact of the interaction between different software units on the guarantees previously given by the system on the worst case execution time and we outline a solution based on contracts to maintain these guarantees
26

Bekkouche, Réda. "Contribution à la conception sure de systèmes complexes, critiques et distribués." Toulouse 3, 2003. http://www.theses.fr/2003TOU30172.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Andrieu, H. "Interprétation de mesures du radar Rodin de Trappes pour la connaissance en temps réel des précipitations en Seine-Saint-Denis et Val-de-Marne : intérêt pour la gestion automatisée d'un réseau d'assainissement." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1986. http://tel.archives-ouvertes.fr/tel-00462327.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Zbrzeski, Adeline. "Circuits intégrés d’enregistrement et d’analyse en temps réel des potentiels de champ neuronaux : application au traitement de la maladie de Parkinson, par contrôle adaptatif de stimulations cérébrales profondes." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14328/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La maladie de Parkinson est la seconde maladie neuro-dégénérative la plus fréquente à travers le monde. Dans ce contexte, le projet de recherche associé à cette thèse vise à améliorer le traitement symptomatique de la maladie de Parkinson, par le développement de procédés de stimulation cérébrale profonde adaptative. Le travail de cette thèse repose sur la conception d’un ASIC d’enregistrement et de traitement de signaux neuronaux, répondant à divers enjeux :un traitement continu et en temps réel focalisé sur des bandes spécifiques très basses-fréquences et largement configurables. L’objectif est d’utiliser l’information traitée pour le contrôle et la génération d’un signal de stimulation. Cet ASIC a été développé, caractérisé électroniquement et utilisé dans un contexte in vivo. Un système en boucle fermée a été réalisé à partir de cet ASIC, se montrant fonctionnel. Ces validations expérimentales in vivo ouvrent de nombreuses possibilités d’investigation du concept de stimulation cérébrale en boucle fermée
Parkinson’s disease is the second most common neurodegenerative diseases throughout theworld. In this context, the research project associated with this thesis is to improve the symptomatictreatment of Parkinson’s disease through the development process of deep brain stimulationadaptive. The work of this thesis is based on the design of an ASIC for recording andprocessing of neural signals, in response to a variety of issues : ongoing treatment and real-timefocus on specific bands of very low-frequency and highly configurable. The goal is to use theprocessed information to the control and generation of a stimulation signal. This ASIC wasdeveloped, characterized and used electronically in a context in vivo. A closed-loop system wasmade from the ASIC, showing functional. These in vivo validations open up many possibilitiesfor investigation of the concept of closed-loop brain stimulation
29

Pascual, Nathalie. "Horloges de synchronisation pour systèmes haute sécurité." Montpellier 2, 1992. http://www.theses.fr/1992MON20145.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La participation de l'aerospatiale au pole firtech microelectronique du grand sud ouest est a l'origine de ce travail. La tendance actuelle est a une utilisation de plus en plus importante des calculateurs et des systemes informatiques. Des lors que de tels systemes sont charges d'un role de securite, la notion de calculateurs tolerants aux fautes prend alors toute sa signification. C'est dans le cadre de la securite que s'inscrit le travail presente dans ce memoire, il concerne plus precisement la distribution tolerante aux fautes de signaux d'horloge aux diverses unites de traitement et de commandes redondantes. Le dispositif elabore sera utilise pour synchroniser des acquisitions de donnees au niveau de capteurs ou pour generer des commandes et etre sur que les donnees manipulees sont correctes et que les commandes vont s'appliquer. Deux asics sont issus de ce travail. Le circuit horloge est capable de detecter, signaler la presence de deux pannes et de se reconfigurer sans perte du synchronisme global
30

De, Sousa Marie-Carmen. "Contribution à l'optimisation de la radioprotection du patient en radiologie : de la mesure en temps réel de la dose en radiologie conventionnelle au calcul du risque de vie entière de décès par cancer radio-induit spécifique par sexe et par âge." Toulouse 3, 2002. http://www.theses.fr/2002TOU30003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Javed, Ibrahim Tariq. "A trust framework for real-time web communications." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les services de conversation Web en temps réel permettent aux utilisateurs d'avoir des appels audio et vidéo et de transférer directement des données sur Internet. Les opérateurs OTT (OTT) tels que Google, Skype et WhatsApp proposent des services de communication économiques avec des fonctionnalités de conversation évoluées. Avec l'introduction de la norme de Web Real Time Communication (WebRTC), n'importe quelle page Web peut désormais offrir des services d'appel. WebRTC est utilisé comme technologie sous-jacente pour déployer de nouvelles plateformes de communication centrées sur le Web. Ces plates-formes visent à offrir de nouvelles méthodes modernes de contact et de communication sur le web. Contrairement aux réseaux de télécommunication traditionnels, les identités sur le Web sont basées sur des profils d'utilisateur et des informations d'identification auto-affirmés. Par conséquent, les opérateurs Web sont incapables d'assurer la fiabilité de leurs abonnés. Les services de communication Web restent exposés à des menaces dans lesquelles le contexte social entre les parties communicantes est manipulé. Un attaquant se définit comme une entité de confiance pour transmettre de fausses informations à l'utilisateur ciblé. Les menaces typiques contre le contexte social comprennent la fausse représentation d'identité, l’hameçonnage, le spam et la distribution illégale de contenu. Afin d'assurer la sécurité sur les services de communication Web, la confiance entre les parties communicantes doit être établie. La première étape consiste à permettre aux utilisateurs d'identifier leurs participants communicants afin de savoir avec qui ils parlent. Cependant, l'authentification seule ne peut garantir la fiabilité d'un appelant. De nouvelles méthodes d'estimation de la réputation de l'appelant devraient également être intégrées dans les services d'appel Web. Par conséquent, dans cette thèse, nous présentons un nouveau cadre de confiance qui fournit des informations sur la fiabilité des appelants dans les réseaux de communication Web. Notre approche est organisée en quatre parties. Premièrement, nous décrivons la notion de confiance dans la communication web en temps réel. Un modèle de confiance est présenté pour identifier les relations de confiance nécessaires entre les entités d'un système de communication. Les paramètres requis pour calculer la confiance dans les services de communication Web sont officiellement introduits. Deuxièmement, nous montrons comment les protocoles Single-Sign-On (SSO) peuvent être utilisés pour authentifier les utilisateurs d'une manière Peer-to-Peer (P2P) sans dépendre de leur fournisseur de service. Nous présentons une comparaison entre trois protocoles d'authentification appropriés (OAuth, BrowserID, OpenID Connect). La comparaison montre que OpenID Connect est le meilleur candidat en termes de confidentialité des utilisateurs. Troisièmement, un modèle de calcul de confiance est proposé pour mesurer la fiabilité des appelants dans un réseau de communication. La légitimité et l'authenticité d'un appelant sont calculées à l'aide de recommandations, tandis que la popularité d'un appelant est estimée en utilisant son comportement de communication. Un abonné d'un service de communication sera capable de visualiser la confiance calculée d'autres membres avant d'initier ou d'accepter une demande d'appel. Enfin, la réputation d'un appelant est utilisée pour lutter contre les appels nuisibles générés sur les réseaux de communication. Les appels de nuisance sont décrits comme des appels de spam non sollicités en masse générés sur un réseau de communication à des fins de marketing et de tromperie. Les enregistrements de données d'appel et les commentaires reçus par les parties communicantes sont utilisés pour déterminer la réputation de l'appelant. La réputation évaluée est utilisée pour différencier les spammeurs et les appelants légitimes du réseau
Real-time web conversational services allow users to have audio and video calls over the Internet. Over-The-Top operators such as Google and Facebook offer cost-effective communication services with advanced conversational features. With the introduction of WebRTC standard, any website or web application can now have built-in communication capabilities. WebRTC technology is expected to boost Voice-Over-IP by making it more robust, flexible and accessible. Telco operators also intend to use the underlying technology to offer communication services to their subscribers over the web. Emerging web-centric communication platforms aims to offer modern methods of contacting and communicating over the web. However, web operators are unable to ensure the trustworthiness of their subscribers, since identities are based on self-asserted user profiles and credentials. Thus, they remain exposed to many social threats in which the context between communicating parties is manipulated. An attacker usually misrepresents himself to convey false information to the targeted victim. Typical social threats include phishing, spam, fraudulent telemarketing and unlawful content distribution. To ensure user security over communication networks, trust between communicating parties needs to be established. Communicating participants should be able to verify each other’s identity to be sure of whom they are talking to. However, authentication alone cannot guarantee the trustworthiness of a caller. New methods of estimating caller’s reputation should also be built in web calling services. In this thesis, we present a novel trust framework that provides information about the trustworthiness of callers in web communication networks. Our approach is organized in four parts. Firstly, we describe the notion of trust in real-time web communication services. A trust model approach is presented to formally introduce the trust computation parameters and relationships in a communication system. Secondly, we detail the mechanism of identity provisioning that allows communicating participants to verify each other’s identity in a Peer-to-Peer fashion. The choice of authentication protocol highly impacts user privacy. We showed how OpenID Connect used for Single-Sign-On authentication purposes can be effectively used for provisioning identities while preserving user privacy. Thirdly, a trust computational model is proposed to measure the trustworthiness of callers in a communication network. The legitimacy and genuineness of a caller’s identity is computed using recommendations from members of the network. On the other hand, the popularity of a caller is estimated by analyzing its behavior in the network. Each subscriber will be able to visualize the computed trust of other members before initiating or accepting a call request. Lastly, the reputation of a caller is used to combat nuisance calls generated over communication networks. Nuisance calls are described as unsolicited bulk spam phone calls generated for marketing and deceptive purposes. Caller’s reputation is computed using the diversity of outgoing calls, call duration, recommendations from called participants, reciprocity and repetitive nature of calls. The reputation is used to differentiate between legitimate and nuisance calls generated over the network
32

Semghouni, Samy Rostom. "Modélisation stochastique des transactions temps réel." Le Havre, 2007. http://www.theses.fr/2007LEHA0012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les SGBD temps réel (SGBDTR) sont conçus pour répondre aux besoins des applications qui nécessitent le traitement de grandes quantités de données en temps réel. Un SGBDTR doit donc traiter les transactions en garantissant leurs propriétés ACID (Atomicité, Cohérence, Isolation, Durabilité) d'une part, et doit satisfaire les contraintes de temps imposées aux transactions et aux données, d'autre part. Les travaux de cette thèse consistent à réaliser une étude stochastique et probabiliste du comportement des transactions temps réel. L'étude est réalisée en faisant varier certaines hypothèses telles que la moyenne d'arrivée des transactions, le type de transactions, le protocole de résolution de conflits (un optimiste et un pessimiste), et la politique d'ordonnancement. Nous avons alors conçu et développé un simulateur de SGBDTR flexible et extensible, sur lequel l'étude à été effectuée. Les résultats obtenus ont montré que le comportement des transactions pouvait être approximé par un modèle probabiliste. Le modèle est utilisé par la suite pour la prédiction du taux de succès des transactions en fonction de la charge du système. Nous avons également proposé une nouvelle politique d'ordonnancement des transactions temps réel qui s'appuie sur les critères d'échéance et d'importance des transactions. Cette politique apporte une contribution dans l'augmentation des performances du système (maximisation du nombre de transactions validées), améliorant ainsi la qualité de service des SGBDTR
Real-time database systems (RTDBSs) are systems designed to address the applications which need real-time processing of large quantities of data. An RTDBS must guarantee the transactions ACID (Atomicity, Consistency, Isolation, Durability) properties on one hand, and must schedule the transactions in order to meet their individual deadlines, on the other hand. In this thesis, we focus on stochastic and probabilistic study of the behavior of real-time transactions. The study is conducted under some assumptions such as the arrival mean of transactions, transactions type, concurrency control protocol (an optimistic and a pessimistic), and scheduling policy. We have then designed and developed a flexible and extensible RTDBS simulator, on which the study is done. The obtained results have shown that the transactions behavior can be approximated by a probabilistic model. The model is used to predict the transactions success ratio according to the system workload. We also propose a new scheduling policy for real-time transactions which uses criteria based on both transaction deadlines and transaction importance. This policy contributes to enhance the system performances (maximization of committing transactions), improving then the RTDBSs quality of service
33

Rivero, Daniel. "Mesure en temps réel de position à précision subpixel dans une image." Dijon, 1999. http://www.theses.fr/1999DIJOS006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Plusieurs applications de métrologie nécessitent un calcul précis des positions d'intersections de barres. Le système que nous avons développé et que nous présentons dans ces travaux est un système de mesure embarqué calculant en temps réel la position des intersections de barres avec une précision subpixel dans des images de 1024 1024 pixels fournis par une caméra dont la fréquence d'horloge est de 50 mhz. Le système auquel nous sommes parvenus est bâti autour d'un algorithme recherchant rapidement les zones d'intersection et qui traite ensuite uniquement dans ces zones les informations afin de modéliser les deux barres horizontale et verticale par deux droites. L'intersection de ces deux droites est considérée comme correspondant à la position de l'intersection. Pour respecter la contrainte de temps réel et dans le but de trouver une solution matérielle minimale, nous avons développé une architecture hybride dans laquelle il résulte que les tâches de bas niveau comme les calculs de centres de gravite sont implantées sur FPGA et les autres taches sur DSPs. La solution développée permet de disposer des résultats dès la fin du transfert des données de la camera (20 ms).
34

Carvalho, Fred Calim. "Hydrocalc : calculateur temps réel de la lame d'eau par radar." Paris 11, 1986. http://www.theses.fr/1986PA112281.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail comprend la réalisation d'un calculateur dont le but est l'estimation de la hauteur de précipitation au moyen des images provenant d'un radar météorologique. étant données les incertitudes de la mesure radar, celle-ci est ajustée dynamiquement au moyen de données pluviométriques. Ces dernières sont obtenues par un réseau de stations météorologiques automatiques, interrogées par ligne téléphonique commutée. Au point de vue matériel, le calculateur est constitue de plusieurs cartes, au format multibus, à base de microprocesseurs 16 bits - 8088 et 8087 -. Le logiciel est conçu autour du système d'exploitation temps réel irmx 86. Ce logiciel de base procure au calculateur les moyens nécessaires d'arbitrage du déroulement de taches dans le temps, ainsi que des mécanismes d'échange entre taches et des interfaces avec plusieurs périphériques. Cette réalisation répond aux besoins de l'utilisation hydrologique des images radar. Son intérêt est d'autant plus grand que les étendues a couvrir, dépourvues d'un réseau dense de pluviomètres, sont importantes
35

Javed, Ibrahim Tariq. "A trust framework for real-time web communications." Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0016/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les services de conversation Web en temps réel permettent aux utilisateurs d'avoir des appels audio et vidéo et de transférer directement des données sur Internet. Les opérateurs OTT (OTT) tels que Google, Skype et WhatsApp proposent des services de communication économiques avec des fonctionnalités de conversation évoluées. Avec l'introduction de la norme de Web Real Time Communication (WebRTC), n'importe quelle page Web peut désormais offrir des services d'appel. WebRTC est utilisé comme technologie sous-jacente pour déployer de nouvelles plateformes de communication centrées sur le Web. Ces plates-formes visent à offrir de nouvelles méthodes modernes de contact et de communication sur le web. Contrairement aux réseaux de télécommunication traditionnels, les identités sur le Web sont basées sur des profils d'utilisateur et des informations d'identification auto-affirmés. Par conséquent, les opérateurs Web sont incapables d'assurer la fiabilité de leurs abonnés. Les services de communication Web restent exposés à des menaces dans lesquelles le contexte social entre les parties communicantes est manipulé. Un attaquant se définit comme une entité de confiance pour transmettre de fausses informations à l'utilisateur ciblé. Les menaces typiques contre le contexte social comprennent la fausse représentation d'identité, l’hameçonnage, le spam et la distribution illégale de contenu. Afin d'assurer la sécurité sur les services de communication Web, la confiance entre les parties communicantes doit être établie. La première étape consiste à permettre aux utilisateurs d'identifier leurs participants communicants afin de savoir avec qui ils parlent. Cependant, l'authentification seule ne peut garantir la fiabilité d'un appelant. De nouvelles méthodes d'estimation de la réputation de l'appelant devraient également être intégrées dans les services d'appel Web. Par conséquent, dans cette thèse, nous présentons un nouveau cadre de confiance qui fournit des informations sur la fiabilité des appelants dans les réseaux de communication Web. Notre approche est organisée en quatre parties. Premièrement, nous décrivons la notion de confiance dans la communication web en temps réel. Un modèle de confiance est présenté pour identifier les relations de confiance nécessaires entre les entités d'un système de communication. Les paramètres requis pour calculer la confiance dans les services de communication Web sont officiellement introduits. Deuxièmement, nous montrons comment les protocoles Single-Sign-On (SSO) peuvent être utilisés pour authentifier les utilisateurs d'une manière Peer-to-Peer (P2P) sans dépendre de leur fournisseur de service. Nous présentons une comparaison entre trois protocoles d'authentification appropriés (OAuth, BrowserID, OpenID Connect). La comparaison montre que OpenID Connect est le meilleur candidat en termes de confidentialité des utilisateurs. Troisièmement, un modèle de calcul de confiance est proposé pour mesurer la fiabilité des appelants dans un réseau de communication. La légitimité et l'authenticité d'un appelant sont calculées à l'aide de recommandations, tandis que la popularité d'un appelant est estimée en utilisant son comportement de communication. Un abonné d'un service de communication sera capable de visualiser la confiance calculée d'autres membres avant d'initier ou d'accepter une demande d'appel. Enfin, la réputation d'un appelant est utilisée pour lutter contre les appels nuisibles générés sur les réseaux de communication. Les appels de nuisance sont décrits comme des appels de spam non sollicités en masse générés sur un réseau de communication à des fins de marketing et de tromperie. Les enregistrements de données d'appel et les commentaires reçus par les parties communicantes sont utilisés pour déterminer la réputation de l'appelant. La réputation évaluée est utilisée pour différencier les spammeurs et les appelants légitimes du réseau
Real-time web conversational services allow users to have audio and video calls over the Internet. Over-The-Top operators such as Google and Facebook offer cost-effective communication services with advanced conversational features. With the introduction of WebRTC standard, any website or web application can now have built-in communication capabilities. WebRTC technology is expected to boost Voice-Over-IP by making it more robust, flexible and accessible. Telco operators also intend to use the underlying technology to offer communication services to their subscribers over the web. Emerging web-centric communication platforms aims to offer modern methods of contacting and communicating over the web. However, web operators are unable to ensure the trustworthiness of their subscribers, since identities are based on self-asserted user profiles and credentials. Thus, they remain exposed to many social threats in which the context between communicating parties is manipulated. An attacker usually misrepresents himself to convey false information to the targeted victim. Typical social threats include phishing, spam, fraudulent telemarketing and unlawful content distribution. To ensure user security over communication networks, trust between communicating parties needs to be established. Communicating participants should be able to verify each other’s identity to be sure of whom they are talking to. However, authentication alone cannot guarantee the trustworthiness of a caller. New methods of estimating caller’s reputation should also be built in web calling services. In this thesis, we present a novel trust framework that provides information about the trustworthiness of callers in web communication networks. Our approach is organized in four parts. Firstly, we describe the notion of trust in real-time web communication services. A trust model approach is presented to formally introduce the trust computation parameters and relationships in a communication system. Secondly, we detail the mechanism of identity provisioning that allows communicating participants to verify each other’s identity in a Peer-to-Peer fashion. The choice of authentication protocol highly impacts user privacy. We showed how OpenID Connect used for Single-Sign-On authentication purposes can be effectively used for provisioning identities while preserving user privacy. Thirdly, a trust computational model is proposed to measure the trustworthiness of callers in a communication network. The legitimacy and genuineness of a caller’s identity is computed using recommendations from members of the network. On the other hand, the popularity of a caller is estimated by analyzing its behavior in the network. Each subscriber will be able to visualize the computed trust of other members before initiating or accepting a call request. Lastly, the reputation of a caller is used to combat nuisance calls generated over communication networks. Nuisance calls are described as unsolicited bulk spam phone calls generated for marketing and deceptive purposes. Caller’s reputation is computed using the diversity of outgoing calls, call duration, recommendations from called participants, reciprocity and repetitive nature of calls. The reputation is used to differentiate between legitimate and nuisance calls generated over the network
36

Lemerre, Matthieu. "Intégration de systèmes hétérogènes en termes de niveaux de sécurité." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00440329.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse étudie les principes de mise en oeuvre pour l'exécution sur un même ordinateur, de tâches de niveaux de criticité différents, et dont certaines peuvent avoir des contraintes temps réel dur. Les difficultés pour réaliser ces objectifs forment trois catégories. Il faut d'abord prouver que les tâches disposeront d'assez de ressources pour s'exécuter; il doit être ainsi possible d'avoir des politiques d'allocations et d'ordonnancement sûres, prévisibles et simples. Il faut également apporter des garanties de sécurité pour s'assurer que les tâches critiques s'exécuteront correctement en présence de défaillances ou malveillances. Enfin, le système doit pouvoir être réutilisé dans une variété de situations. Cette thèse propose de s'attaquer au problème par la conception d'un système hautement sécurisé, extensible, et qui soit indépendant des politiques d'allocation de ressources. Cela est notamment accompli par le prêt de ressource, qui permet de décompter les ressources indépendamment des domaines de protection. Cette approche évite d'avoir à partitionner les ressources, ce qui simplifie le problème global de l'allocation et permet de ne pas gâcher de ressources. Les problèmes de type inversion de priorité, famine ou dénis de service sont supprimés à la racine. Nous démontrons la faisabilité de cette approche è l'aide d'un prototype, Anaxagoros. La démarche que nous proposons simplifie drastiquement l'allocation des ressources mais implique des contraintes dans l'écriture de services partagés (comme les pilotes de périphériques). Les principales difficultés consistent en des contraintes de synchronisation supplémentaires. Nous proposons des mécanismes originaux et efficaces pour résoudre les problèmes de concurrence et synchronisation, et une méthodologie générale pour faciliter l'écriture sécurisée de ces services partagés.
37

Traore, Karim. "Analyse et validation des applications temps réel en présence de transactions : application au pilotage d'un drone miniature." Poitiers, 2007. http://www.theses.fr/2007POIT2261.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’étude que nous présentons traite de l’ordonnancement d’un modèle de tâches tems réel spécifique rencontré dans le développement d’une application concrète. Le développement de du contrôle embarqué d’un drone miniature a montré des limitations dans les modèles classiques d’ordonnancement pour la prise en compte de certains aspects matériels (notamment mode de communication sériel entre des capteurs actifs et le système de contrôle). La prise en compte de ces aspects nous a amenés à définir un modèle de tâches particuliers : la transaction série, que nous avons généralisé au modèle des transactions monotoniques. Nous présentons le système de contrôle du drone, et les aspects liés à l’ordonnancement des modèles de tâches proposés, qui correspondent à de nombreux cas réels (avionique, contrôle automobile). Nous comparons nos modèles à l’existant (transactions, modèles multiframes), et dégageons des tests d’ordonnançabilité de complexité pseudo-polynomiale
We present a concrete case study of an embedded system and its implications in the theory of real-time scheduling. The development process of the embedded system controlling an unmanned aerial vehicle (UAV) pointed out some limitations in the classic modelling of concrete real-time systems because some hardware devices lead to a specific activation scheme of the tasks (e. G. Serial communication between active sensors and the processor). We had to define a new task model in order to take this particular scheme, which occurs frequently in real applications (aircraft and automotive systems). This is the model of serial transactions that we generalize to monotonic transactions. We present the case study of the UAV, and the aspects of real-time scheduling theory related to the monotonic and serial transactions (comparison with the transactions and the multiframe model). We give an exact characterization of the worst case response time in a pseudo-polynomial time for our model
38

Abecasis, Donna. "Bases neurophysiologiques du traitement des séquences sonores en temps réel : étude des accents métriques." Paris 5, 2006. http://www.theses.fr/2006PA05H041.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail, réalisé dans le cadre de l’étude du rythme musical, avait pour but d’explorer en temps réel les réponses cérébrales (potentiels évoqués, PE) associées à l’extraction de la métrique. Même en l’absence de différences physiques entre les sons d’une séquence régulière, l’auditeur perçoit une accentuation métrique subjective (temps forts et faibles) associée à la génération d’attentes temporelles. Dans des séquences régulières nous avons introduit des changements d’intensité sonore, induisant une rupture des ces attentes. L’amplitude d’une composante évoquée tardive dépendante de l'attention (P3) était plus élevée sur des positions accentuées. Dans les études suivantes, des PE plus précoces, latéralisés à gauche, subissaient aussi l’influence de la métrique, même en l’absence de changement. Nos résultats, discutés à la lumière des théories de l’attention, suggèrent que l’accentuation subjective suit un pattem binaire, associé à l’imposition spontanée de schémas métriques implicites
Within the area of rhythm perception, the present work vas aimed at exploring in real time (using event-related brain potentials, ERPs) the induction of meter. Even in perfectly regular sound sequences and in the absence of physical differences between the tones (isochronous equitone sequences) we tend to perceive “subjective” metrical accenting (strong and weak beats), associated with the generation of temporal expectancies. We introduced occasional violations of expectancies (deviant soft tones) in otherwise equitone sequences. A late, artention-dependent ERP component (P3) showed larger amplitudes in response to deviants in accented positions. In further studies, earlier. Left-lateralised metrical effects on the elicited brain responses were also found, both in standard and deviant tones. Our results, discussed in the light of theories of attention, suggest that “subjective” accenting follows a default binary pattem, possibly due to covert schemes spontaneouslv imposed by listeners
39

Ghazaly, Christelle. "Développement d’un capteur spectrophotométrique pour la mesure en temps réel des expositions professionnelles à l’ozone." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0207.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’ozone provoque des maux de tête, des lésions pulmonaires et oculaires, ainsi que des maladies respiratoires graves telles que l'asthme. L’ozone est émis dans l’atmosphère des lieux de travail dans différents secteurs, notamment les imprimeries, les stations d’épuration des eaux, les ateliers de soudage à l’arc électrique et les industries de transformation des matières plastiques. L’exposition des salariés à des concentrations dépassant les valeurs limites d'exposition professionnelle (VLEP) nationales et européennes de l’ozone, fixées à 100 ppbv sur 8 heures et à 200 ppbv sur 15 minutes, peut provoquer des altérations sévères de la santé. Actuellement, la détermination des concentrations d’ozone dans l’air est réalisée à l’aide de tubes colorimétriques, assurant des mesures ponctuelles, ou en utilisant des capteurs commerciaux. Des études ont également été réalisées sur les capteurs, à base de cellules électrochimiques ou de semi-conducteurs et plus rarement sur des capteurs optiques. La limite de détection de ces capteurs est compatible avec les VLEP de l’ozone, mais ils sont fragiles et ne sont pas sélectifs. Il n’existe pour le moment aucune méthode de référence fiable et robuste pour l’évaluation des expositions professionnelles à l’ozone. L’objectif de cette étude est le développement d’une méthode de mesure en temps réel de l’ozone, qui soit caractérisée par un signal stable sous air, une sensibilité et une sélectivité élevée. Ce système de mesure doit permettre également d’identifier les phases les plus exposantes pour les salariés. Nous avons choisi la spectroscopie visible comme système de détection simple, rapide et précis. Nous avons élaboré avec succès le matériau sensible, basé sur un colorant peu coûteux, le bleu de méthylène, adsorbé sur un film mince de silice mésoporeuse déposé sur plaque de verre par dip-coating. Ce matériau est stable plus de 50 jours stocké sous air ambiant. Le système comprend également un tube de Nafion® ; utilisé afin de stabiliser le taux d’humidité relative de l’air. Le signal du capteur mesuré est la diminution d’absorbance à 600 nm. Cette diminution résulte de l’oxydation du colorant en présence d’ozone, et est irréversible sous air. Le capteur développé est caractérisé par une sensibilité aux faibles concentrations d’ozone allant de 10 à 500 ppbv, une cinétique de réponse reproductible et aucune interférence directe en présence de 500 ppbv de dioxyde d’azote. La dépendance à la température de la réponse du capteur est décrite. La performance de la détection pendant des scénarios d’exposition pendant des temps courts et à des concentrations variables est décrite. Le système élaboré pourrait servir de bon candidat pour la surveillance en temps réel des expositions professionnelles à l’ozone. Cette étape exigera une miniaturisation des différents composants du banc d’essais afin de pouvoir utiliser le capteur développé sur les lieux de travail
Ozone causes headaches, eye burns and lung damage and serious respiratory diseases such as asthma. Ozone is emitted into the atmosphere of workplaces in various sectors, including printing, water treatment, arc welding, and plastics processing. Exposure of workers to concentrations exceeding national and european ozone occupational exposure limit values (OELs), set at 100 ppbv over 8 hours and 200 ppbv over 15 minutes, may cause severe health alterations. Currently, the determination of ozone concentrations is carried out by using colorimetric tubes, providing spot measurements, or by using commercial sensors. Some studies were carried out on electrochemical cells or semiconductors based sensors and more rarely on optical sensors. The detection limit of these sensors is compatible with ozone OELs, but they are fragile and not selective. There is currently no reliable and robust reference method for the assessment of occupational exposures to ozone. The objective of this study is the development of a real-time ozone measurement method, which is characterized by a stable signal under air, high sensitivity, and selectivity. This measurement system must also make it possible to identify the most exposed phases for employees. We chose visible spectroscopy as a simple, fast and accurate detection system. We have successfully developed the sensitive material, based on an inexpensive dye, methylene blue, adsorbed on a thin film of mesoporous silica deposited on a glass plate by dip-coating. This material is stable for more than 50 days stored under ambient air. The system also includes a Nafion® tube; used to stabilize the relative humidity of the air. The measured sensor signal is the absorbance decrease at 600 nm. This reduction results from the oxidation of the dye in the presence of ozone and is irreversible under air. The developed sensor is characterized by sensitivity to low ozone concentrations ranging from 10 to 500 ppbv, reproducible response kinetics and no direct interference in the presence of 500 ppbv of nitrogen dioxide. The temperature dependence of the sensor response is described. The performance of the detection during exposure scenarios for short times and variable concentrations is described. The developed system could be a good candidate for real-time monitoring of occupational ozone exposures. This step will require miniaturization of the test bench components to use the sensor developed in the workplace
40

Cardin-Bernier, Guillaume. "Observateur pour le suivi en temps réel de cultures cellulaires végétales." Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/1591.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce document présente le travail effectué et les résultats obtenus dans le cadre d'un projet visant à associer une technique nouvellement développée, le suivi des biomarqueurs endogènes permettant l'estimation de la concentration cellulaire de cultures végétales en suspensions, à un modèle mathématique décrivant l'évolution de ces cultures en fonction de la consommation des différents nutriments disponibles. Cette association permet d'obtenir une estimation des conditions de cultures cellulaires en temps réel dont la mesure ne peut actuellement être effectuée que par échantillonnages. Les temps d'expériences requis pour obtenir les mesures sont toutefois trop longs pour pouvoir effectuer un contrôle des conditions de cultures advenant une déviation du procédé. L'intérêt de ce projet se situe à deux endroits. Premièrement, la simplicité, la rapidité et l'efficacité de la technique de suivi des biomarqueurs endogènes permet le suivi en temps réel de la quantité de cellules lors de la culture (concentration cellulaire et biomasse). Or, en raison des particularités des cultures de cellules végétales, en particulier l'agglomération cellulaire, il est très difficile d'obtenir une estimation fiable de la concentration cellulaire. Présentement, il n'existe pas de technique commercialement disponible pour effectuer ce suivi. D'où l'intérêt de la méthode des biomarqueurs endogènes. Ensuite, l'association de ces mesures avec un modèle mathématique permet d'obtenir un outil décrivant l'évolution de la culture et de variables importantes qui l'influencent. Le modèle étant indépendant de la technique des biomarqueurs endogènes, il est possible de suivre un grand éventail de procédés et de variables en suivant la même méthodologie, en modifiant le modèle utilisé. Ce projet utilise un cas précis, la culture d'Arabidopsis thaliana dans un milieu standard avec un modèle relativement simple. Cependant, la même démarche peut être appliquée pour d'autres systèmes avec d'autres types d'organismes. Le travail présenté ici ouvre donc la voie à une meilleure compréhension des cultures cellulaires en générale et pourrait permettre l'optimisation de procédés jusqu'ici difficilement contrôlables dû au manque d'information disponible.
41

Idrissi, Azzouzi Mostafa. "Conception et optimisation d'un nouvel appareil de mesure en temps réel des aérosols radioactifs émetteurs alpha." Paris 11, 1988. http://www.theses.fr/1988PA112213.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mesure de contaminations de l'atmosphère par des radioéléments artificiels émetteurs alpha (239Pu, 241Am, 244Cm,. . . ) est un problème délicat du fait de la nature du rayonnement à détecter, des faibles activités correspondant aux LDCA et de la présence dans l'air des descendants du radon et du thoron également émetteurs alpha. Pour éviter les inconvénients que présentent les appareils existants, nous avons conçu, réalisé et mis au point un nouvel appareil dont les principes de base sont d'une part, la collection des aérosols par la technique du jet de gaz sur un support solide, d'autre part, la mesure en temps réel de l'activité alpha à l'aide d'un détecteur solide à des pressions de quelques millibars. Tout d'abord, nous avons optimisé le rendement de collection des aérosols en étudiant l'influence de la nature et de la dimension du collecteur, de la distance entre celui-ci et la buse de formation du jet, et du débit d'air. Par ailleurs nous avons montré que, pour les différents supports utilisés, la résolution en énergie est indépendante de la nature du collecteur, mais dépend énormément des conditions atmosphériques. La mesure en direct de la radioactivité des prélèvements est assurée par un détecteur annulaire intercalé entre la buse et la collection. La bonne résolution, la bonne efficacité et la possibilité de discriminer les contaminants naturels et artificiels, prouvent la faisabilité de l'appareil
The measurement of the atmospheric contaminations due to artificial radioelements alpha emitters (239pu, 241Am, 244Cm,. . . ) is a very difficult problem to resolve because of the three following reasons: the nature of the radiation to detect; very small activities, which correspond to LDCA; existence in the atmosphere of descendants radon and thoron, which are alpha emitters too. To avoid the drawbacks that the present apparatus present, we have conceived, realised and focused a new apparatus based on the following principals: aerosols collection by gaz jet technic on solid state support and measurement in real time under a few millibar presion using a solid detector. First of all, we have tried to make the aerosol collection rate better studying the collector nature and dimension influence, the distance between the collector and the gaz jet exit and the air flow. Using different supports, we have shown that the energy resolution is not depending on the support nature, but it depends very much on atmospheric conditions. Direct measurements of the radioactive samples are made by the annular detector insered between the nozzel and the collector. The good resolution, the efficacity and the discrimination of natural and artificial contaminations show off the feasibility of this apparatus
42

Ghasemi, Navid. "Improvement of the driving simulator control and comparison between driver-road-vehicule interaction in real and simulated environment." Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les activités de recherche ont été menées en collaboration avec l'Université de Bologne, l'Université Paris-Est et l'Université Gustave Eiffel sous la forme d'un doctorat cotutelle. Les activités sont divisées en deux macro-domaines ; les études de simulation de conduite réalisées à l'Université Gustave Eifel (IFSTTAR) et les expériences sur route organisées par l'Université de Bologne. La première partie de la recherche se concentre sur l'amélioration de la fidélité physique du simulateur de conduite à deux degrés de liberté avec une attention particulière aux signaux de mouvement et au modèle de dynamique du véhicule. Ce dernier a été développé dans MATLAB-Simulink et a la capacité de calculer en temps réel les états du véhicule et de contrôler la plateforme de mouvement. Au cours de cette phase de la recherche, des algorithmes de repères de mouvement ont été développés pour contrôler les mouvements du simulateur et l'effet des signaux de mouvement sur le comportement des conducteurs a été analysé par expérimentation. Les résultats de ces études sont discutés dans les cas d’études I et II. Dans la deuxième partie de la recherche, les performances du conducteur et le comportement visuel ont été étudiés sur la route sous différents scénarios. Le comportement visuel du conducteur a été enregistré à l'aide d'un dispositif de suivi oculaire monté sur la tête, tandis que la trajectoire du véhicule a été enregistrée avec un véhicule instrumenté équipé du système de positionnement mondial. Au cours de cette phase, plusieurs études de cas ont été développées pour surveiller le comportement des conducteurs en milieu naturaliste. La cas d'étude III vise à intégrer l'audit de sécurité routière traditionnel à un système innovant de surveillance du comportement des conducteurs. L’expérimentation sur route avec des conducteurs a été réalisée sur une artère urbaine afin d'évaluer l'approche proposée à travers des techniques innovantes de suivi des conducteurs. Ces mêmes instruments de surveillance de la conduite ont été utilisés pour évaluer l'amélioration d'un passage pour piétons au rond-point dans le cas d'étude IV. Les données de suivi oculaire ont été évaluées dans les deux études afin d'identifier un indicateur d'attention visuelle du conducteur en fonction de la position et de la durée du regard des participants. Une attention particulière est accordée à la sécurité des conducteurs vulnérables dans les zones urbaines lors de l'étude du comportement de conduite naturaliste. Le cas d'étude V a analysé le comportement de conduite du conducteur en phase d'approche d'un passage prioritaire à vélo à l'aide de mesures de sécurité de substitution. Les mesures de performance des conducteurs telles que le temps de réaction de la perception et le comportement du regard ont été utilisées pour évaluer le niveau de sécurité du passage à niveau, équipé de systèmes de signalisation standard et innovants. L’amélioration du comportement cédant du conducteur vers un passage à niveau non signalé pendant la nuit et sa réaction à un système d’alarme d’éclairage intégré ont été évaluées dans le cas d’étude VI. La dernière phase de la thèse est consacrée à l'étude du régulateur de vitesse adaptatif (ACC) avec expérimentation sur route et sur simulateur. L'expérimentation sur route a étudié l'influence du système d'aide à la conduite sur l'adaptation des conducteurs avec une évaluation objective et subjective, dans laquelle un instrument de suivi oculaire et un casque EEG ont été utilisés pour surveiller les conducteurs sur une autoroute. Les résultats sont présentés dans les cas d’études VII et VIII et l’attention visuelle des conducteurs a été réduite en raison de l’adaptation à l’ACC dans le scénario de suivi de véhicule. Les résultats de l'essai sur route ont ensuite été utilisés pour reproduire le même scénario dans le simulateur de conduite et l'adaptation du comportement des conducteurs avec l'utilisation de l'ACC a été confirmée par l'expérimentation
The related research activities were carried out in collaboration with the University of Bologna, Paris-Est University and Gustave Eiffel University (IFSTTAR) in the form of a cotutelle PhD. The activities are divided into two macro areas ; the driving simulation studies conducted in Gustave Eifel University (IFSTTAR) and on-road experiments organized by the University of Bologna. The first part of the research is focused on improving the physical fidelity of the two DOF driving simulator with particular attention to motion cueing and vehicle dynamics model. The vehicle dynamics model has been developed in MATLAB-Simulink and has the ability of real-time calculation of the vehicle states and control the motion platform. During this phase of the research, motion cueing algorithms were developed to control the simulator movements and the effect of the motion cues on drivers’ behaviour was analysed through experimentation. The results of these studies are discussed in the case studies I and II. In the second part of the research, the driver performance and visual behaviour were studied on the road under different scenarios. The driver visual behaviour was recorded with the use of a head mounted eye-tracking device, while the vehicle trajectory was registered with an instrumented vehicle equipped with Global Positioning System (GPS). During this phase, several case studies were developed to monitor drivers’ behaviour in the naturalistic environment. Case study III aims to integrate the traditional road safety auditing with an innovative driver behaviour monitoring system. The real road experiment with drivers was carried out in an urban arterial road in order to evaluate the proposed approach through innovative driver monitoring techniques. These same driving monitoring instruments were used for evaluating the improvement of a pedestrian crossing at the roundabout in case study IV. The eye-tracking data were evaluated in both studies in order to identify a driver visual attention indicator based on the participants gaze position and duration. Significant attention is given to the safety of vulnerable drivers in urban areas during the naturalistic driving behaviour study. Case study V analyzed the driver yielding behaviour in approach phase to a bicycle priority crossing with the use of surrogate safety measures. The drivers’ performance measures such as perception reaction time and gaze behaviour were used to assess the safety level of the crossing equipped with standard and innovative signalling systems. The improvement on the driver’s yielding behaviour towards an un-signalized crossing during night-time and their reaction to an integrated lighting-warning system was evaluated in the case study VI. The last phase of the thesis is dedicated to the study of Adaptive Cruise Control (ACC) with on-road and simulator experimentation. The on-road experimentation investigated the driver assistant system influence on the drivers' adaptation with objective and subjective assessment, in which an eye tracking instrument and EEG helmet were used to monitor the drivers on a highway. The results are presented in Case studies VII and VIII and drivers’s visual attention was reduced due to adaptation to the ACC in the car following scenario. The results of the on-road test were later used to reproduce to the same scenario in the driving simulator and the adaptation of drivers’ behaviour with the use of ACC was confirmed through experimentation
43

Vezinet, Didier. "Mesure et analyse du rayonnement Xmou d'un plasma de Tokamak en vue d'un contrôle en temps réel." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4749/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est centrée sur la mesure et l'interprétation du rayonnement X mou ([1 keV; 15 keV] environ) dans les Tokamaks. Le chapitre 2 montre que ce rayonnement véhicule des informations sur la température et la densité du plasma, sur sa configuration magnétique, et sur son contenu en impuretés. Malheureusement les mesures effectuées sont intégrées spatialement et spectralement et résultent des contributions de tous les ions présents.Le diagnostic X mou de Tore Supra s'articule autour de diodes semi-conductrices présentée dans le chapitre 3 aux côté d'un détecteur à gaz testé avec succès. Une nouvelle méthode de détermination de la réponse spectrale d'un photodétecteur n'utilisant qu'un tube X mou portable est également décrite.Les inversions tomographiques, qui permettent d'accéder au champ d'émissivité reconstruit dans une section poloidale, font l'objet du chapitre 4. Les améliorations apportées à un algorithme particulier sont détaillées.Une comparaison systématique entre les positions horizontales du maximum d'émissivité et de l'axe magnétique est présentée au chapitre 5.Le chapitre 6 décrit une hypothèse concernant la résilience de la fonction de rayonnement X mou d'une impureté vis-à-vis du transport de cette impureté. Cette hypothèse permet de déduire la densité d'une impureté de son émissivité X mou. Les processus physiques justifiant cette hypothèse, ainsi que leur domaine de validité sont analysés avec soin.Le chapitre 7 présente les asymétries poloidales d'émissivité X mou. Les premiers résultats d'expériences mises en oeuvres à ASDEX-U pour vérifier les dépendences paramétriques de deux types particuliers d'asymétries sont détaillés
This thesis focuses on measuring and interpreting the Soft X-Ray (SXR) radiation (approximately [1 keV; 15 keV]) in Tokamaks.As explained in Chapter 2, this radiation conveys information about the plasma density, temperature, magnetic equilibrium and impurity content. However, the measured data is spectrally and spatially-integrated and results from several physical phenomena affecting every ion species. Tore Supra's SXR diagnostics is based on semiconductor diodes presented in Chapter 3, along with a new gas detector successfully tested in laboratory and on Tore Supra. A new methodology for absolute spectral characterisation of photo detectors using a portable SXR tube is presented. Tomographic inversion algorithms, that grant access to reconstructions of the SXR emissivity field in a poloidal cross-section, are presented in Chapter 4. Improvements implemented on one particular algorithm are detailed with examples of application. A comparison between the position of the SXR emissivity maximum and the magnetic axis reconstructed by an equilibrium code is presented in Chapter 5.Chapter 6 presents an approach used to derive an impurity density from its SXR emissivity using the robustness of its SXR cooling factor with respect to impurity transport. The physics accounting for this robustness is studied and a first map of the domain of validity of this method is provided. Chapter 7 addresses poloidal asymmetries of the SXR emissivity field. Two types of asymmetries are presented as well as experiments conducted on ASDEX-U to verify their parametric dependences. A new type of SXR asymmetry, observed on Tore Supra is introduced
44

Janulyte, Aurika. "Etude physico-électrique et optimisation métrologique d'un spectromètre de masse pour la détection temps réel de traces de dioxines." Aix-Marseille 1, 2007. http://www.theses.fr/2007AIX11040.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le spectromètre de masse utilisant un piège à ions nécessitait des améliorations instrumentales en vue d’analyser des molécules plus lourdes (env. 400u) et d’augmenter ses performances métrologiques: résolution/ sensibilité. Une étude systématique des différents étages du spectromètre de masse a été menée pour optimiser la transparence de chaque étage et appréhender les phénomènes qui perturbent la trajectoire des ions lors de leur confinement et conduisent à une dégradation du spectre. Nous avons étudié principalement l’influence des défauts électriques des alimentations et des défauts mécaniques du piège selon divers paramètres expérimentaux. Nous avons étudié l’environnement électrique du spectromètre et un générateur de tension adapté. La capacité à confiner des molécules plus lourdes est liée à l’amplitude de la tension alternative. Nous avons développé un dispositif d’alimentation qui respecte les critères de stabilité d’amplitude et de fréquence de la tension de confinement
To increase the ion trap mass spectrometer metrological performance to better detect large molecular weight compounds, i. E. , dioxines, a systematic study of the different mass spectrometric detection stages was performed. In order to increase the ion trap's resolution and sensitivity, different parameters were tested to determine the influence of the corresponding stage's effect of the given parameter on the ion confinement leading to 'damaged' ion spectra. First, principally, power supplies electrical and ion trap's mechanical defects were studied. Secondly, the wave generator electrical environment was studied. In order to confine large molecular mass ions within an ion trap, higher voltage amplitude the wave generator was developed. This wave generator respected criteria of frequency and voltage amplitude stability to better confine large molecular ions such as dioxines
45

Vercruysse, Michel. "Mesure en temps réel de l'orthogonalité des fils de trame d'un tissu en défilement et son traitement automatique." Lille 1, 1991. http://www.theses.fr/1991LIL10034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est un ensemble de travaux visant à résoudre les problèmes de la mesure de l'orthogonalité des fils de trame par rapport aux fils de chaîne d'un tissu en défilement. Cette mesure est nécessaire pour réguler la position des fils de trame des tissus qui subissent des déformations lors des opérations d'ennoblissement. L'origine des problèmes est due à la très grande diversité des tissus. Pour solutionner l'ensemble de ces problèmes, nous avons introduit une technique entièrement numérique et procédé en plusieurs étapes commuées en chapitres dans la thèse. Dans un premier temps, nous avons établi une base de données dont la constitution a nécessité l'étude et la réalisation d'un analyseur temps réel. Après étude statistique de cette base, un modèle mathématique du signal observé ainsi que les traitements théoriques optimaux ont pu être définis. Dans un deuxième temps, nous avons développé un mesureur prototype contenant ces traitements, en tenant compte du mode d'exploitation sur site du mesureur, ainsi que de l'environnement de mesure qui transforme le modèle du signal en une fonction de deux variables aléatoires non-stationnaires. Nous avons abouti à l'étude et à la mise au point d'un filtrage numérique auto-adaptatif ainsi qu'aux développements d'un opérateur de reconnaissance structurelle de formes et d'une reconnaissance par modélisation. L'ensemble de ces traitements est architecturé pour former un plan matriciel des états du système sur lequel sont prises les décisions de mesure. Les différentes fonctions ont été implémentées sur des processeurs numériques de signaux afin de satisfaire le critère du temps réel. Parallélement aux traitements numériques, nous avons développé un traitement optique, consistant à introduire un procédé de mesure par réflexion. Avant notre étude, 75% des tissus étaient considérés mesurables, nous estimons que plus de 95% le sont maintenant. Ce résultat obtenu avec le prototype confirme la justesse des principes et des concepts avancés
46

Boukhtache, Seyfeddine. "Système de traitement d’images temps réel dédié à la mesure de champs denses de déplacements et de déformations." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC054.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’inscrit dans un cadre pluridisciplinaire. Elle traite de la problématique du temps réel et de celle des performances métrologiques en traitement d’images numériques. Elle s'intéresse plus particulièrement à la photomécanique. Il s'agit d'une discipline récente visant à développer et à utiliser au mieux des systèmes de mesure de champs entiers de petits déplacements et de petites déformations en surface de solides soumis à des sollicitations thermomécaniques. La technique utilisée dans cette thèse est la corrélation des images numériques (CIN), qui se trouve être l'une des plus employées dans cette communauté. Elle représente cependant des limitations à savoir un temps de calcul prohibitif et des performances métrologiques améliorables afin d'atteindre celles des capteurs ponctuels classiques comme les jauges de déformation.Ce travail s'appuie sur deux axes d'étude pour relever ce défi. Le premier repose sur l'optimisation de l'interpolation d'images qui est le traitement le plus coûteux dans la CIN. Une accélération est proposée en utilisant une implémentation matérielle parallélisée sur FPGA, tout en tenant compte de la consommation des ressources matérielles et de la précision. La principale conclusion est qu'un seul FPGA (dans les limites technologiques actuelles) ne suffit pas à implémenter l'intégralité de l'algorithme CIN. Un second axe d'étude a donc été proposé. Il vise à développer et à utiliser des réseaux de neurones convolutifs pour tenter d'atteindre à la fois des performances métrologiques meilleures que la CIN et un traitement en temps réel. Cette deuxième étude a montré l'efficacité d'un tel outil pour la mesure des champs de déplacements et de déformations. Elle ouvre de nouvelles perspectives en termes de performances métrologiques et de rapidité des systèmes de mesure de champs
This PhD thesis has been carried out in a multidisciplinary context. It deals with the challenge of real-time and metrological performance in digital image processing. This is particularly interesting in photomechanics. This is a recent field of activity, which consists in developing and using systems for measuring whole fields of small displacements and small deformations of solids subjected to thermomechanical loading. The technique targeted in this PhD thesis is Digital Images Correlation (DIC), which is the most popular measuring technique in this community. However, it has some limitations, the main one being the computing resources and the metrological performance, which should be improved to reach that of classic pointwise measuring sensors such as strain gauges.In order to address this challenge, this work relies on two main studies. The first one consists in optimizing the interpolation process because this is the most expensive treatment in DIC. Acceleration is proposed by using a parallel hardware implementation on FPGA, and by taking into consideration the consumption of hardware resources as well as accuracy. The main conclusion of this study is that a single FPGA (current technology) is not sufficient to implement the entire DIC algorithm. Thus, a second study has been proposed. It is based on the use of convolutional neural networks (CNNs) in an attempt to achieve both better metrological performance than CIN and real-time processing. This second study shows the relevance of using CNNs for measuring displacement and deformation fields. It opens new perspectives in terms of metrological performance and speed of full-field measuring systems
47

Lasri, Mohamed Amjad. "Utilisation des réseaux de capteurs Géocubes pour la mesure de déformation des volcans en temps réel par GNSS." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE040/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le système Géocube est un réseau de capteurs GPS conçu et développé par le Laboratoire d'OptoÉléctronique de Métrologie et d'Instrumentation (LOEMI) de l'Institut National de l'Information Géographique et Forestière (IGN) et maintenu par le même laboratoire et l'entreprise Ophelia- Sensors qui s'occupe de son industrialisation. Il a comme objectif de mesurer les déformations du sol avec une précision millimétrique. Ce réseau de capteurs a la particularité d'être à la fois très peu énergivore, d’un faible coût de revient, simple d’installation et d’utilisation. Il est donc bien adapté à l’usage dans un environnement difficile, comme les volcans. Ce système a déjà été testé avec succès lors d’une précédente thèse sur le glacier d’Argentière et sur un glissement de terrain proche de Super-Sauze en France. La première partie de cette thèse porte sur l’optimisation du système de calcul du Géocube pour l'adapter à des réseaux de tailles plus importantes horizontalement et verticalement en vue de son utilisation dans un contexte volcanique. Cela passe, d’abord, par l’intégration d’une stratégie pour l’estimation du biais troposphérique dans le filtre de Kalman qui constitue le coeur du logiciel de calcul du Géocube. Cette amélioration est ensuite validée en utilisant les données de quelques réseaux GNSS permanents nationaux et internationaux. La deuxième partie consiste à étudier l’apport d’un réseau dense de Géocubes à l’étude du volcanisme à travers une expérience conduite sur le flanc sud-est de l’Etna, où cinq Géocubes ont été déployés entre le 12 Juillet 2016 et le 10 Juillet 2017. Les résultats obtenus et les enseignements tirés de cette expérimentation sont discutés et analysés. Enfin, nous validons les résultats obtenus avec les Géocubes en appliquant une technique PSI (Persistent Scatterer InSAR) sur des interférogrammes RADAR calculés à partir des données des satellites Sentinel-1A/B et qui couvrent la période de déploiement des Géocubes sur l’Etna. Ces deux méthodes (GPS et RADAR) se sont avérées complémentaires puisque le RADAR apporte la densité spatiale des mesures et le système Géocube la précision et la continuité temporelle
The Geocube system is a network of wireless GPS sensors designed and developed by the Laboratory of Opto-Electronics, Metrology and Instrumentation (LOEMI) of the National Institute of Geographical and Forest Information (IGN) and maintained by the same laboratory and Ophelia-Sensors, the company responsible for its industrialization. Its purpose is to measure ground deformations with millimetre accuracy. This sensor network has the particularity of being very low in energy consumption, low cost, easy to install and easy to use. It is suited for use in harsh environments, such as volcanoes. This system has already been successfully tested in a previous works on the Argentière glacier and a Super-Sauze landslide in France. The first part of this thesis deals with the optimization of the Geocube system for larger networks, horizontally and vertically, in order to use it in a volcanic context. First, a new strategy to estimate the tropospheric bias has been implemented into the Kalman filter (the heart of the Geocube processing software) in real time and in post-processing. This improvement is then validated using data from some national and international permanent GNSS networks. The second part consists in studying the contribution of a dense Geocubes network to the study of volcanism through an experiment conducted on the southeastern flank of Etna, where five Geocubes were deployed between July, 12th 2016 and July, 10th 2017. The results obtained from this experiment are discussed and analysed. Finally, the results obtained with Geocubes are validated by applying a PSI (Persistent Scatterer InSAR) technique on RADAR interferograms calculated from Sentinel-1A/B satellite data covering the period of deployment of the Geocubes on Etna. These two methods (GPS and RADAR) turned out to be complementary since RADAR provides the spatial density of measurements and the Geocube system provides accuracy and temporal continuity
48

Piatyszek, Éric. "Détection de dysfonctionnements en système hydrographique : application aux réseaux d'assainissement." ENSMP, 1998. http://www.theses.fr/1998ENMP0838.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche vise à développer des méthodes de détection et diagnostic appropriées et intégrables dans des systèmes soit d'aide à la décision dans le cadre de la gestion temps réel des réseaux d'assainissement, ou dans des procédures d'élaboration automatique de bilans quantitatifs de pollution légalement exigibles. Cette étude méthodologique débouche sur une synthèse et un approfondissement des techniques de détection et diagnostic de dysfonctionnements de réseau d'assainissement, et permet de dégager trois méthodes de détection reposant sur un modèle soit qualitatif soit analytique. L'une de ces méthodes s'applique à construire des comportements attendus du réseau synthétisés dans un modèle qualitatif dont la réponse est croisée avec les mesures. Les deux autres approches s'appuient sur un modèle hydrologique de transformation pluie-débit intégré dans un filtre de Kalman. La détection est alors réalisée soit avec un banc de filtres de Kalman complété par un test multi-hypothèses, soit avec un seul filtre de Kalman associé à un ensemble de tests d'hypothèses. Ces méthodes sont complétées par des analyses de sensibilité des procédures de détection et des exemples d'application pour des pluies de type différent. Enfin, une méthode de validation de mesures hydrauliques acquises en contexte hydrologique de temps sec est proposée. Elle s'appuie sur la création de scénarios de temps sec, comparés aux mesures hydrauliques grâce à des tests d'hypothèses. Cette approche permet alors d'identifier des contextes hydrologiques et hydrauliques caractérisant l'environnement d'un point de mesure
49

Bon, Christophe. "Relation pression-vitesse d'une classe d'écoulement instationnaire : application à la mesure des débits instantanés." Poitiers, 1996. http://www.theses.fr/1996POIT2256.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail est consacre au developpement d'un dispositif original de mesure de vitesse ou de debit instantane par mesures de pression. Moyennant des hypotheses simplificatrices, l'application des equations de la mecanique des fluides aux ecoulements instationnaires fournit des lois qui permettent de ramener la mesure de la vitesse ou du debit instantane a des mesures de pression. Ainsi, appliquee aux ecoulements unidimensionnels en conduite a section variable, l'equation de bilan d'energie cinetique permet d'obtenir une relation temporelle exprimant le debit et sa derivee par rapport au temps en fonction de la difference de pression entre deux sections droites. A partir du modele theorique obtenu et d'une configuration geometrique de conduite particuliere, nous proposons quatre methodes de calcul du debit instantane. Afin de tester ces differentes methodes, un dispositif experimental est developpe. Il est constitue d'un element mecanique qui a la forme d'un troncon de conduit de geometrie particuliere muni de prises de pression, de chaines de mesure de pressions instationnaires et d'un module informatique capable de recueillir les informations envoyees par les capteurs de pression, de calculer et de restituer les valeurs instantanees du debit. La confrontation des resultats obtenus par notre dispositif et par anemometrie a fil chaud en ecoulement pulse a l'admission d'un moteur thermique, permet, d'une part, de juger de la validite des differents algorithmes de calcul et, d'autre part, de definir les limites d'application de notre moyen de mesure, tant en temps differe qu'en temps reel. Ainsi, ce dispositif de debitmetrie instantanee offre indeniablement des possibilites importantes d'applications dans le secteur industriel
50

Bernède, Jean-Pierre. "Algorithmes adaptatifs et qualitatifs de prévision des crues en temps réel : application au cas de l'Aveyron." Toulouse, INPT, 1990. http://www.theses.fr/1990INPT060H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
A partir des hypotheses de conservation du gradient temporel intrinseque de hauteur (ou debit) en une station de prevision, de conservation de masse en regime transitoire a surface libre et par des essais de simulation sur la riviere aveyron, nous mettons en relief le role suffisamment explicatif, en situation de prevision de crues, des termes de gradients temporels, intrinseque de hauteur (ou debit), extrinseque de debit, associes a une hypothese de fermeture (sur les apports lateraux) par une integrale de dirac sur la pluie. Il en resulte dans un premier temps un modele de prevision des crues en temps reel, adaptatif par optimisation (sous contraintes) de l'erreur precedente, en association avec des lois qualitatives d'anticipation sur les variations de tendance a convexite negative. Finalement pour mieux prendre en compte la diversite des crues nous proposons un modele a ponderation evolutive sur le gradient temporel intrinseque du champ des hauteurs anamorphoses, sur le gradient temporel extrinseque de debit aux stations explicatives amonts et sur l'integrale de dirac de la pluie. L'anamorphose du champ des hauteurs et les parametres du modele sont indexes a un arbre de lois qualitatives analysant les changements potentiels de tendance en cours de realisation de l'evenement

До бібліографії