Academic literature on the topic 'Mesures temps réel'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Mesures temps réel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Mesures temps réel":

1

Darras, Lionel. "Acquisition de mesures topographiques appliquée aux prospections géophysiques en milieu couvert." E3S Web of Conferences 342 (2022): 02002. http://dx.doi.org/10.1051/e3sconf/202234202002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Connaître la topographie d'un site à étudier avec une prospection géophysique facilite l'interprétation des mesures. Cet article présente une approche de mesure de la topographie d'un site étudié en milieu couvert où le positionnement par GPS est impossible faute de couverture satellitaire en milieu forestier, urbain ou souterrain. Le système de mesure altimétrique "ZheoPS-RTK" a été développé pour acquérir la topographie d'un site avec une précision décimétrique en s'appuyant sur l'utilisation de deux capteurs barométriques, l'un servant à mesurer une altitude de référence et l'autre à mesurer l'altitude du point de mesure souhaité avec correction en temps réel de la dérive calculée par la station de base.
2

Bennis, S., F. Berrada, and F. Bernard. "Méthodologie de validation des données hydrométriques en temps réel dans un réseau d'assainissement urbain." Revue des sciences de l'eau 13, no. 4 (April 12, 2005): 483–98. http://dx.doi.org/10.7202/705404ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif du présent travail est l'élaboration d'une méthodologie de validation des données hydrométriques mesurées dans un réseau d'assainissement. L'information validée est utilisée aussi bien en temps réel, pour optimiser les consignes de gestion, qu'en temps différé, pour poser le véritable diagnostic et évaluer, sur une base quotidienne, l'efficacité des systèmes d'assainissement. Le principe de base de la méthodologie proposée repose sur la redondance analytique de l'information provenant d'une part de la mesure directe du débit sur le terrain et d'autre part du débit simulé à partir des variables météorologiques. On compare ainsi d'une part, l'écart entre la valeur prévue par un modèle autorégressif (AR) et la valeur mesurée et d'autre part, l'écart entre la valeur prévue par ce même modèle AR et la valeur simulée par un modèle hydrologique. Parmi les valeurs, mesurée et simulée, celle qui se rapproche le plus de la valeur prévue est retenue. Afin de considérer des modèles non stationnaires et d'éviter le biais d'estimation des paramètres de régression par la méthode standard des moindres carrés, le filtre de Kalman est utilisé pour identifier les paramètres du modèle AR. La méthodologie proposée a été testée avec succès sur un bassin urbain de la municipalité de Verdun. L'hydrogramme mesuré a été bruité artificiellement à la fois par un bruit blanc et par un certain nombre de perturbations de grandes amplitudes et de différentes formes. Le processus de validation a permis de retrouver pratiquement les mesures initiales, non bruitées. Les critères de performance introduits sont largement concluants.
3

Guersen, J., G. Méchin, V. Chassin, J. Gabrillargues, B. Jean, E. Chabert, B. Pereira, L. Boyer, F. Magnier, and L. Cassagnes. "Dose au cuir chevelu en neuroradiologie interventionnelle : évaluation de la technologie de dosimétrie MOSFET." Radioprotection 53, no. 2 (April 2018): 133–38. http://dx.doi.org/10.1051/radiopro/2018011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Objectifs : Évaluer la technologie MOSFET en comparaison avec la technologie des films radiochromiques pour déterminer la dose cutanée maximale reçue par le patient au niveau du cuir chevelu lors d’embolisations vasculaires intra crâniennes. Sensibiliser les opérateurs à l’importance de la dose reçue par les patients avec la visualisation en temps réel de cette valeur que permet la technologie MOSFET. Matériel et méthode : Six patients traités pour un anévrysme intracrânien ont fait l’objet de 24 mesures comparatives de dose par film radiochromique et avec la technologie MOSFET. Résultats : Les dosimètres MOSFET mesuraient la dose ponctuelle au cuir chevelu du patient en temps réel et avec un niveau de précision suffisant, compte tenu du besoin (dose inférieure de 9 % à celle lue par les films dans 54 % des cas et supérieure de 12 % dans 45 % des cas). Néanmoins, il s’agissait de valeurs localisées au point de mesure de chaque dosimètre MOSFET, alors que les films radiochromiques permettaient d’accéder à une cartographie dosimétrique prenant en compte les recoupes et chevauchements des champs d’exposition. Conclusion : La dosimétrie MOSFET, actuellement plus onéreuse, nous apparaissait donc plus indiquée pour des mesures de dose ciblées (e.g. cristallin) ou sur des champs de dose uniforme que pour une recherche systématique de la dose cutanée maximale lors d’embolisations vasculaires intracrâniennes, pour laquelle nous persisterons à utiliser les films radiochromiques.
4

Choquet-Geniet, Annie, Gaëlle Largeteau-Skapin, and Abdoulaye Ouattara. "Mesures de l'équité d'une application temps-réel à l'aide de géométrie discrète." Journal Européen des Systèmes Automatisés 43, no. 7-9 (November 10, 2009): 1065–79. http://dx.doi.org/10.3166/jesa.43.1065-1079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Willemin, P., M. Masson, and M. Descemond. "Décapage de fil machine inoxydable à Imphy. Suivi en ligne des bains de décapage par titrimétrie." Revue de Métallurgie 92, no. 4 (April 1995): 535–40. http://dx.doi.org/10.1051/metal/199592040535.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'étude menée sur la ligne d'lmphy s.a. montre la possibilité de suivre les bains de décapage de façon simple et en temps réel, qu'ils soient mono-acide, hi-acide et éventuellement à potentiel oxydant contrôlé. L'étude couple des observations de laboratoire et de nombreuses mesures industrielles permettant de valider la méthodologie proposée. Une étude économique précise conforte l'intérêt de la mise en place d'une telle gestion.
6

Temimi, M., and S. Bennis. "La prévision en temps réel des charges de polluants dans un réseau d'assainissement urbain." Revue des sciences de l'eau 15, no. 3 (April 12, 2005): 661–75. http://dx.doi.org/10.7202/705474ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif principal du présent travail est la prévision en temps réel des charges de polluants dans un réseau d'assainissement urbain. La méthodologie préconisée dans cette étude se base sur deux outils. En premier lieu, le modèle de la courbe de tarage a été utilisé afin d'exprimer la corrélation entre les charges de polluants et les débits de ruissellement. Ce modèle a été sélectionné en raison de sa simplicité et de la disponibilité des paramètres nécessaires pour sa mise en œuvre. L'hypothèse de synchronisme systématique entre les pointes de l'hydrogramme et du pollutogramme dans ce modèle constitue une des faiblesses que nous proposons de surmonter dans le cadre du présent travail. Ainsi, le modèle de la courbe de tarage a été modifié par l'introduction d'un terme de déphasage qu'on identifie en temps réel. D'autre part, la constance des paramètres mis en jeu dans le modèle classique de la courbe de tarage constitue un autre obstacle pour la reproductibilité des phénomènes au cours du même événement et d'un événement à l'autre. Afin de surmonter cette deuxième faiblesse, le filtre de Kalman a été utilisé pour identifier les paramètres d'un modèle dynamique en fonction des erreurs de prévision constatées à chaque pas de temps. La méthodologie a été testée avec succès sur le secteur I de la ville de Verdun du Québec. Le modèle établi a été validé à l'aide de trois critères de performance, à savoir, le coefficient de Nash, le rapport des pointes mesurées/prévues et leur déphasage. Selon ces critères, les résultats trouvés par le modèle dynamique concordent bien avec les mesures.
7

Mougin, Bruno, Jérôme Nicolas, Yannick Vigier, Hélène Bessière, and Stéphane Loigerot. "« MétéEAU Nappes » : un site Internet contenant des services utiles à la gestion des étiages." La Houille Blanche, no. 5 (October 2020): 28–36. http://dx.doi.org/10.1051/lhb/2020045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le site Internet « MétéEAU Nappes » offre un ensemble de services permettant le suivi du comportement actuel et futur des aquifères en France et ainsi la disponibilité de la ressource en eau par anticipation. Il est possible, pour les points de surveillance actuellement proposés et associés à un modèle global, de visualiser les mesures les plus récentes issues du réseau piézométrique national. Ces données sont représentées sous forme de cartes et de courbes issues de travaux de modélisation et de prévision des niveaux des nappes en basses eaux en lien avec des problématiques de sécheresse. Ces prévisions, lancées sur 6 mois, sont comparées à des seuils piézométriques de sécheresse issus des arrêtés préfectoraux de restriction d'usage en cours. Des données météorologiques, hydrologiques et piézométriques sont mises en ligne en temps réel et en format interopérable sur 10 sites représentatifs de France métropolitaine. Les moyens technologiques employés afin d'aboutir à ces services sont : la technologie GPRS (à ce jour déployée sur près de 1400 stations du réseau piézométrique national) permettant de mettre à disposition quotidiennement les données mesurées, ainsi qu'une architecture technique dédiée s'appuyant sur des standards internationaux et sur des technologies récentes permettant le croisement de données temps réel de sources différentes et la valorisation de modélisations déjà effectuées. Le site Internet public ouvrira vraisemblablement en 2020.
8

Hayes, Brandon. "Anticiper la pandémie de grippe aviaire." Le Nouveau Praticien Vétérinaire élevages & santé 15, no. 52 (2023): 34–38. http://dx.doi.org/10.1051/npvelsa/2023020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation mathématique en épidémiologie comprend un ensemble d’outils capable de fournir des informations mesurables basées sur des données historiques ou en temps réel. Différents modèles sont utilisables et peuvent être grossièrement répartis en deux catégories : les modèles statistiques et les modèles mécanistes. La modélisation est un outil majeur pour aider les décideurs politiques dans le domaine de la santé publique. Dans le cas de l’influenza aviaire hautement pathogène, elle permet notamment de prédire les dynamiques d’évolution des épizooties et l’impact des différentes mesures, comme la réduction de la densité des élevages ou la mise en place de la vaccination des oiseaux.
9

Leroy, C., L. Treluyer, R. Hellmann, R. Cléry, F. Haab, and Y. Parc. "Retour d’expérience sur la cellule régionale d’appui à la régulation des lits de réanimation Covidréa pendant la crise Covid-19." Annales françaises de médecine d’urgence 10, no. 4-5 (September 2020): 321–26. http://dx.doi.org/10.3166/afmu-2020-0278.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La disponibilité des lits de réanimation a été un enjeu majeur de la gestion de la crise Covid-19, imposant aux acteurs régionaux de construire une réponse coordonnée et novatrice pour apporter une réponse en termes de recherche de place. Dans la région Île-de-France, la mise en place du dispositif a été constituée par deux mesures : la refonte du répertoire opérationnel des ressources (ROR) et la création d’une cellule d’appui régionale (Covidréa) comportant des cellules médicale et administrative. Les opérateurs de la cellule médicale étaient des chirurgiens volontaires sous la supervision d’un médecin urgentiste, chargés des actions de recherche et de régulation des demandes. La cellule administrative a vérifié la pertinence des informations du ROR sur un rythme pluriquotidien. La mobilisation des acteurs locaux (anesthésistes et réanimateurs) a permis d’obtenir des données actualisées du ROR quasiment en temps réel. La crise sanitaire Covid-19 a mis en lumière les faiblesses des systèmes d’information, particulièrement la connaissance de la disponibilité en lits de réanimation en temps réel. Une démarche collective pour construire de nouveaux outils de pilotage adaptés au quotidien, dans le cadre des tensions hivernales (bronchiolite, grippe) ou saisonnières (canicule), et la gestion des situations sanitaires exceptionnelles est impérative. Il est nécessaire d’intégrer cette fonction dans la mission des Samu départementaux en temps ordinaire et des Samu zonaux en temps de crise, en particulier dans la logique de construction du futur service d’accès aux soins (SAS).
10

Gassmann. "Geräteeinstellung in der bildgebenden Ultraschall-Dopplerdiagnostik (Spektral- und Farb-Doppler)." Praxis 91, no. 16 (April 1, 2002): 677–84. http://dx.doi.org/10.1024/0369-8394.91.16.677.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le diagnostic par ultrasons se distingue par son caractère non-invasif et réitérable. Des enregistrements statiques permettent d'évaluer la morphologie et l'anatomie topographique. Le développement des techniques en temps réel ont permis d'évaluer les processus dynamiques. En parallèle à ces développements, l'effet Doppler s'est établi pour évaluer le flux sanguin. Par opposition à toutes les autres méthodes d'imagerie diagnostique médicale, le diagnostic par sonographie est très interactif. Un grand nombre de paramètres de mesures des appareils doit être modifié par l'examinateur et les conditions d'examen doivent être adaptées. Il n'existe aucune programmation standard qui garantisse une image optimale. Le médecin doit connaître les interactions entre la physique et la technique pour identifier les artéfacts et les problèmes d'imagerie.

Dissertations / Theses on the topic "Mesures temps réel":

1

Roy, Julien. "Correction et moyennage temps-réel pour mesures interférométriques par peignes de fréquence." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30065/30065.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire a pour but le développement d’un système interférométrique à peignes de fréquence simple d’utilisation et performant afin de démocratiser l’utilisation de cette nouvelle technologie. Dans ce mémoire, le principe d’interférométrie par peignes de fréquence est décrit ainsi que des techniques de référencement. Par la suite, le référencement est utilisé afin de concevoir un système de correction et de moyennage temps-réel. Ce mémoire présente le système optique et électronique nécessaire à la réalisation d’un tel système. Toutes les étapes de la conception de l’algorithme de correction et de moyennage y sont exposées ainsi que les différents compromis et optimisations effectués. Finalement, des mesures expérimentales prises et corrigées à l’aide du système développé sont présentées. À ce jour, la mesure d’HCN et de C¬¬2H2 ainsi que celle du micro-résonateur présentées dans ce mémoire possèdent le plus haut rapport signal sur bruit pris par un interféromètre à peignes de fréquence.
2

Kang, Eun-Young. "Abstractions booléennes pour la vérification des systèmes temps-réel." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10089/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente un schéma formel et efficace pour la vérification de systèmes temps-réel. Ce schéma repose sur la combinaison par abstraction de techniques déductives et de model checking, et cette combinaison permet de contourner les limites de chacune de ces techniques. La méthode utilise le raffinement itératif abstrait (IAR) pour le calcul d'abstractions finies. Etant donné un système de transitions et un ensemble fini de prédicats, la méthode détermine une abstraction booléenne dont les états correspondent à des ensembles de prédicats. La correction de l'abstraction par rapport au système d'origine est garantie en établissant un ensemble de conditions de vérification, issues de la procédure IAR. Ces conditions sont à démontrer à l'aide d'un prouveur de théorèmes. Les propriétés de sûreté et de vivacité sont ensuite vérifiées par rapport au modèle abstrait. La procédure IAR termine lorsque toutes les conditions sont vérifiées. Dans le cas contraire, une analyse plus fine détermine si le modèle abstrait doit être affiné en considérant davantage de prédicats. Nous identifions une classe de diagrammes de prédicats appelés PDT (predicate diagram for timed system) qui décrivent l'abstraction et qui peuvent être utilisés pour la vérification de systèmes temporisés et paramétrés
This thesis provides an efficient formal scheme for the tool-supported real-time system verification by combination of abstraction-based deductive and model checking techniques in order to handle the limitations of the applied verification techniques. This method is based on IAR (Iterative Abstract Refinement) to compute finite state abstractions. Given a transition system and a finite set of predicates, this method determines a finite abstraction, where each state of the abstract state space is a true assignment to the abstraction predicates. A theorem prover can be used to verify that the finite abstract model is a correct abstraction of a given system by checking conformance between an abstract and a concrete model by establishing/proving that a set of verification conditions are obtained during the IAR procedure. Then the safety/liveness properties are checked over the abstract model. If the verification condition holds successfully, IAR terminates its procedure. Otherwise more analysis is applied to identify if the abstract model needs to be more precise by adding extra predicates. As abstraction form, we adopt a class of predicate diagrams and define a variant of predicate diagram PDT (Predicate Diagram for Timed systems) that can be used to verify real-time and parameterized systems
3

Guiard-Marigny, Thierry. "Modélisation tridimensionnelle des articulateurs de la parole : implémentation temps réel et mesures d'intelligibilité bimodale." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0164.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous presentons une chaine complete d'analyse-synthese de visages tridimensionnels parlants, developpee pour mener des etudes fondamentales sur la production et la perception visuelle de la parole. Dans un premier temps, une taxinomie originale des differents systemes d'animation de visages synthetiques existants est dressee en decrivant precisement toutes les phases du processus. Les principaux resultats sur la bimodalite intrinseque de la parole sont ensuite analyses pour souligner les precautions a prendre afin de respecter une bonne synchronisation labiale. Une modelisation des organes visibles de la partie inferieure du visage (levres, machoire et peau) a ete realisee sur la base de leurs caracteristiques physiologiques. L'ensemble des modeles est commande par six parametres anatomiques, directement mesurables sur le visage d'un locuteur maquille. La qualite des mouvements labiaux et de leur synchronisation avec le signal de parole a ete evaluee a travers des tests de perception mesurant l'apport d'intelligibilite des modeles a de la parole bruitee. Notre dispositif d'extraction des parametres faciaux est base sur une analyse chromatique d'images video du visage d'un locuteur aux levres maquillees en bleu. Il fournit precisement, en temps reel et 25 fois par seconde, les parametres de commande du visage synthetique. L'ensemble des modeles faciaux et du dispositif de mesure constitue un systeme complet d'analyse-synthese de visages parlants dont les performances permettent des applications aussi bien en recherche fondamentale sur la bimodalite de la parole qu'en communication homme-machine. Notre systeme peut etre mis a la disposition des infographistes pour automatiser le lip-sync dans les films d'images de synthese. Ce travail a ete developpe et est utilise dans le cadre du projet esprit-bra miami
4

Limane, Tahar. "Conception et réalisation d'un outil de surveillance, temps réel, d'espaces de débattements de robots." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0093.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire concernent la conception et La réalisation d'un outil de surveillance en temps réel, de débattements de robots industriels dans le but d'améliorer La sécurité des opérateurs et des machines. Ce mémoire présente d'abord une analyse globale des conditions de risques en Robotique et la mise en évidence des différents facteurs de dépendance Liés à la spécification d'un système de protection. Les différents moyens et dispositifs de protection ainsi que les paramètres caractérisant l'arrêt d'un robot sont ensuite présentés. Les contraintes liées à la réalisation d'un nouveau système de sécurité, élaborant des contrôles d'appartenance à des espaces de surveillance en intégrant la dynamique du robot surveillé sont étudiées. Sont exposées ensuite, les spécifications fonctionnelles et structurelles ainsi que les modèles conceptuels du système de protection à réaliser. Des approches méthodologiques issues du domaine du Génie Logiciel sont utilisées, permettant ainsi de valider l'ensemble du cycle de vie du produit développe et d'en garantir le niveau de qualité et de fiabilité recherché. Ces travaux sont concrétisés par la réalisation de l'outil SAFE (Surveillance d'Ateliers Flexibles et de leur Environnement). Enfin, des perspectives d'intégration de fonctionnalités complémentaires sont proposées, concernant notamment La gestion de la commande et des espaces de surveillance autour des sites robotisés sécurisés
The study presented in this report addresses the problems of designing and implementing a real-time control system of robots movements. The top-Level objective of the study is to enhance the safety of both the human operators and the machines. We begin with a global analysis of risk conditions in Robotics and general relationship statements between the different factors which have to be taken into account when specifying protection systems. We survey the different methods as well as the different equipments used in protection systems against robots possibly undue clearances. Constraints specification of a mean safety system able to control dynamically the robot's containment within the limits allowed or forbidden spaces are studied. Afterwards, we present the functional and structural specifications a well as the conceptual models of the protection systems to be implemented. Methodological approaches of software engineering type are proposed in view of validating the overall system life-cycle, its quality and its reliability. This study results the elaboration of the software tool SAFE (Surveillance d'Ateliers Flexibles et de Leur environnement) which is described in the report. Further developments of SAFE are suggested concerning, particularly, two inter-related functionalities of safety control : - first, the robot command program itself, - second, the dynamic re-specification of safety space when any change arises in the robot's task
5

Morissette, Jean-François. "Algorithmes de gestion de ressources en temps-réel : positionnement et planification lors d'attaques aériennes." Thesis, Université Laval, 2004. http://www.theses.ulaval.ca/2004/22184/22184.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis plusieurs années, Recherche et D´eveloppement pour la Défense Canada (RDDC) et Lockheed Martin Canada (LMC) travaillent en collaboration afin de moderniser le système de Commande et Contrôle (C2) présent sur une frégate. Un tel système a pour but d’analyser et de gérer un flot d’informations considérable afin d’effectuer les bonnes actions face à une situation donnée. Notre rôle au sein de ce projet se situe au niveau de la prise de décision. Nous devons étudier les possibilités que peut offrir la technologie agent à un tel système. Dans ce mémoire, nous proposons un mod`ele formel d’interaction entre les différentes ressources disponibles sur la frégate et les menaces auxquelles elle doit faire face. Nous proposons aussi une technique de positionnement et une approche de planification afin de maximiser les chances de survie de la frégate. Enfin, nous présentons les résultats que nous avons obtenus au moyen de simulations.
6

Buret, Pierrick. "Sécurité temps réel dans les systèmes embarqués critiques." Thesis, Limoges, 2015. http://www.theses.fr/2015LIMO0140/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La croissance des flux d'information à travers le monde est responsable d'une importante utilisation de systèmes embarqués temps-réel, et ce notoirement dans le domaine des satellites. La présence de ces systèmes est devenue indispensable pour la géolocalisation, la météorologie, ou les communications. La forte augmentation du volume de ces matériels, impactée par l'afflux de demande, est à l'origine de l'accroissement de la complexité de ces derniers. Grâce à l'évolution du matériel terrestre, le domaine aérospatial se tourne vers de nouvelles technologies telles que les caches, les multi-coeurs, et les hyperviseurs. L'intégration de ces nouvelles technologies est en adéquation avec de nouveaux défis techniques. La nécessité d'améliorer les performances de ces systèmes induit le besoin de réduction du coût de fabrication et la diminution du temps de production. Les solutions technologiques qui en découlent apportent pour majeure partie des avantages en matière de diminution du nombre global de satellites à besoin constant. La densité d'information traitée est parallèlement accrue par l'augmentation du nombre d'exploitants pour chaque satellite. En effet, plusieurs clients peuvent se voir octroyer tout ou partie d'un même satellite. Intégrer les produits de plusieurs clients sur une même plateforme embarquée la rend vulnérable. Augmenter la complexité du système rend dès lors possible un certain nombre d'actes malveillants. Cette problématique autrefois à l'état d'hypothèse devient aujourd'hui un sujet majeur dans le domaine de l'aérospatial. Figure dans ce document, en premier travail d'exploration, une présentation des actes malveillants sur système embarqué, et en particulier ceux réalisés sur système satellitaire. Une fois le risque exposé, je développe la problématique temps-réel. Je m'intéresse dans cette thèse plus précisément à la sécurité des hyperviseurs spatiaux. Je développe en particulier deux axes de recherche. Le premier porte sur l'évolution des techniques de production et la mise en place d'un système de contrôle des caractéristiques temporelles d'un satellite. Le deuxième axe améliore les connaissances techniques sur un satellite en cours de fonctionnement et permet une prise de décision en cas d'acte malveillant. Je propose plus particulièrement une solution physique permettant de déceler une anomalie sur la gestion des mémoires internes au satellite. En effet, la mémoire est un composant essentiel du fonctionnement du système, et ses propriétés communes entre tous les clients la rend particulièrement vulnérable. De plus, connaître le nombre d'accès en mémoire permet un meilleur ordonnancement et une meilleure prédiction d'un système temps réel. Notre composant permet la détection et l'interprétation d'une potentielle attaque ou d'un problème de sûreté de fonctionnement. Cette thèse met en évidence la complémentarité des deux travaux proposés. En effet, la mesure du nombre d'accès en mémoire peut se mesurer via un algorithme génétique dont la forme est équivalente au programme cherchant le pire temps d'exécution. Il est finalement possible d'étendre nos travaux de la première partie vers la seconde
Satellites are real-time embedded systems and will be used more and more in the world. Become essential for the geo-location, meteorology or communications across the planet, these systems are increasingly in demand. Due to the influx of requests, the designers of these products are designing a more and more complex hardware and software part. Thanks to the evolution of terrestrial equipment, the aero-space field is turning to new technologies such as caches, multi-core, and hypervisor. The integration of these new technologies bring new technical challenges. In effect, it is necessary to improve the performance of these systems by reducing the cost of manufacturing and the production time. One of the major advantages of these technologies is the possibility of reducing the overall number of satellites in space while increasing the number of operators. Multiple clients softwares may be together today in a same satellite. The ability to integrate multiple customers on the same satellite, with the increasing complexity of the system, makes a number of malicious acts possible. These acts were once considered as hypothetical. Become a priority today, the study of the vulnerability of such systems become major. In this paper, we present first work a quick exploration of the field of malicious acts on onboard system and more specifically those carried out on satellite system. Once the risk presentation we will develop some particular points, such as the problematic real-time. In this thesis we are particularly interested in the security of space hypervisors. We will develop precisely 2 lines of research. The first axis is focused on the development of production technics and implementing a control system of a satellite temporal characteristics. The objective is to adapt an existing system to the constraints of the new highly complex systems. We confront the difficulty of measuring the temporal characteristics running on a satellite system. For this we use an optimization method called dynamic analysis and genetic algorithm. Based on trends, it can automatically search for the worst execution time of a given function. The second axis improves the technical knowledge on a satellite in operation and enables decision making in case of malicious act. We propose specifically a physical solution to detect anomalies in the management of internal memory to the satellite. Indeed, memory is an essential component of system operation, and these common properties between all clients makes them particularly vulnerable to malicious acts. Also, know the number of memory access enables better scheduling and better predictability of a real time system. Our component allows the detection and interpretation of a potential attack or dependability problem. The work put in evidence the complementarity of the two proposed work. Indeed, the measure of the number of memory access that can be measured via a genetic algorithm whose shape is similar to the program seeking the worst execution time. So we can expand our work of the first part with the second
7

Testa, Mauro. "Mesures physiques pour la vérification du parcours des ions en hadronthérapie." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00556628.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur les mesures expérimentales des γ-prompts créés lors de la fragmentation du faisceau d'ions carbone en hadronthérapie. Deux expériences ont été effectuées aux laboratoires GANIL et GSI avec des ions 12C6+ de 95MeV/u et 305MeV/u irradiant une cible d'eau ou de PMMA. Dans les deux expériences une nette corrélation a été obtenue entre le parcours des ions carbone et le profil longitudinal des γ- prompts. Une des plus grandes difficultés de ces mesures vient de la discrimination entre le signal des γ-prompts (qui est corrélé avec le parcours des ions) et un important bruit de fond dû aux neutrons (non corrélé au parcours). Deux techniques sont employées pour effectuer la discrimination entre γ et neutrons: le temps de vol (TDV) et la discrimination par forme de signal (DFS). Le TDV a permis de démontrer la corrélation entre la production de γ-prompts et le parcours des ions. La DFS a fourni des informations précieuses pour la compréhension des caractéristiques des spectres en TDV. Dans ce travail on a démontré qu'un système de détection de γ-prompt collimaté, basé sur la technique du temps de vol, peut permettre une vérification en temps réel de la position du Pic de Bragg en conditions cliniques. Dans la dernière partie de la thèse, un travail de simulation a été effectué à l'aide du code de simulation Geant4 pour évaluer l'influence des principaux paramètres du design d'un dispositif de multi-détecteurs et multicollimateurs sur la résolution spatiale et l'efficacité atteignable par une Camera γ-Prompt. Plusieurs configurations géométriques ont été étudiées de façon systématique et les principales contraintes du design sont analysées.
8

Hautot, Félix. "Cartographie topographique et radiologique 3D en temps réel : acquisition, traitement, fusion des données et gestion des incertitudes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS141.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre des activités de maintenance, de décontamination et de démantèlement d’installations nucléaires, il est nécessaire d’effectuer un état des lieux précis des structures potentiellement contaminées ou activées, préalablement à toute intervention. Pour des raisons économiques, cet état des lieux doit être le plus souvent réalisé dans un temps court. Par ailleurs, il est généralement effectué par un opérateur, dont le temps d’exposition aux rayonnements doit être minimisé. Une des difficultés récurrentes réside dans l’éventuelle obsolescence ou de l’inexistence des plans, et dans le cas d’investigations en intérieur, de la perte de signaux GPS, et de la difficulté d’employer des systèmes de localisations externes et pré-calibrés. En effet, l’état des lieux est obtenu en couplant une cartographie de l’environnement avec des mesures nucléaires destinées à évaluer le niveau de radiations dans les lieux étudiés. Dans ce cadre, il est nécessaire de disposer d’un instrument portatif permettant de délivrer une cartographie radiologique et topographique la plus exhaustive possible des locaux afin d’établir des scénarii d’intervention. Afin de minimiser le temps d’exposition de l’opérateur, il est essentiel que les données acquises soient exploitables en temps réel. Ce type d’instrument doit permettre de procéder à des interventions complexes et doit fournir les meilleures prévisions dosimétriques afin d’optimiser les temps d’intervention lors du démantèlement ainsi que la gestion des éventuels déchets. À ces fins, Areva STMI a développé un système autonome de positionnement et de calcul de déplacement de sondes de mesures nucléaires en temps-réel basé sur les techniques de SLAM (Simultaneous Localization And Mapping). Ces développements ont conduit au dépôt d’un brevet. Ce travail de thèse a consisté à poursuive cette étude, et en particulier à décomposer l’ensemble des sous-systèmes, à poursuivre les développements inhérents à la fusion de données topographiques et radiologiques, à proposer des moyens d’optimisation, et à poser les bases d’une technique d’analyse, en temps réel, des incertitudes associées. Les méthodes SLAM utilisent l’odométrie visuelle qui peut reposer sur la capture d’images à l’aide de caméras RGB-D (caméras de type Microsoft Kinect®). Le processus d’acquisition délivre une carte tridimensionnelle contenant la position et l’orientation en 3D des appareils de mesure ainsi que les mesures elles-mêmes (débit de dose et spectrométrie gamma CZT) sans implication d’infrastructure préexistante. Par ailleurs, des méthodes de détections de sources basées sur les techniques d’interpolation spatiale et de rétroprojection de signal en « proche temps-réel » ont été développées. Ainsi, il est possible d’évaluer la position des sources radioactives dans l’environnement acquis. Il est ainsi possible de calculer rapidement des cartes de son état radiologique sans délai après l’acquisition. La dernière partie de ce travail a consisté à poser les bases d’une méthode originale pour l’estimation, en proche temps réel, de la précision des résultats issus de la chaîne d’acquisition et de traitement. Cette première approche nous a permis de formuler l’évaluation et la propagation des incertitudes tout au long de cette chaîne d’acquisition en temps réel, afin d’évaluer les méthodes que nous avons employées en termes de précision et de fiabilité de chaque acquisition réalisée. Enfin, une phase de benchmark permet d’estimer les résultats par rapport à des méthodes de référence
In the field of nuclear related activities such as maintenance, decontamination and dismantling status reports of potentially contaminated or activated elements are required beforehand. For economic reasons, this status report must be quickly performed. So as to be done quickly, the operation is realized by an operator, and his exposure time must be reduced as much as possible. Concerning indoor environments, it can be hard to make such investigations due to out-of-date plans or maps, loose of GPS signal, pre-positioning of underlying or precalibrated systems. Indeed, the premises status report is obtained by coupling nuclear measurements and topographical mapping. In such kind of situation it is necessary to have a portative instrument that delivers an exhaustive radiological and topographical mapping in order to deliver a decision support concerning the best intervention scenario to set up as fast as possible. Furthermore, and so as to reduce operator’s exposure time, such kind of method must be usable in real time. This method enables to proceed to complex intervention within the best radiological previsions for optimizing operator’s exposition time and waste management. In this goal, Areva STMI then developed a nuclear measurement probes autonomous positioning and motion estimation system based on visual SLAM (Simultaneous Localization And Mapping). These developments led to apply a patent. This thesis consisted in pursuing this survey, especially decomposing all the underlying systems, continuing the data fusion developments, proposing optimisations, and setting the basis of a real-time associated uncertainties analysis. SLAM based on visual odometry can be performed with RGB-D sensor (Microsoft Kinect®-like sensors). The acquisition process delivers a 3D map containing radiological sensors poses (positions and orientations in 3D) and measurements (dose rate and CZT gamma spectrometry) without any external signal or device. Moreover, a few radioactive sources localization algorithms based on geostatistics and back projection of measurements can also be performed in near real-time. It is then possible to evaluate the position of radioactive sources in the scene and compute fast radiological mappings of premises close to the acquisition. The last part of this work consisted in developing an original method for real-time evaluation of the process chain and results accuracies. The evaluation of uncertainties and their propagation along the acquisition and process chain in real-time provide feedbacks on employed methods for investigations or intervention processes and enable to evaluate the reliability of acquired data. Finally, a set of benchmarks has been performed in order to estimate the results quality by comparing them to reference methods
9

Maxim, Cristian. "Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066479/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération
In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements
10

Maxim, Cristian. "Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066479.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération
In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements

Books on the topic "Mesures temps réel":

1

Max, Jacques. Méthodes et techniques de traitement du signal et applications aux mesures physiques. 4th ed. Paris: Masson, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Dé-libérer le travail. Teseo, 2021. http://dx.doi.org/10.55778/ts877232882.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
<p>Le temps d’une recomposition profonde des conditions de travail est-il venu? La crise sanitaire et les mesures qui se succèdent pour y faire face mettent en relief le rôle des frontières sociales, spatiales et temporelles dans l’organisation de l’économie et questionnent le fonctionnement des régimes démocratiques. Ils donnent une visibilité à l’ampleur des inégalités mais aussi à l’importance vitale de certains métiers souvent peu valorisés voire méprisés. Le tableau est sombre mais les expériences de transformation du travail aident à resserrer l’attention sur l’essentiel: une libération réelle du travail, qui nécessite un cadre collectif et la possibilité de délibérer régulièrement, voire d’intervenir dans la gouvernance. Lucide dans le diagnostic du réel, ambitieux dans l’affirmation du désirable: voici le parti-pris de cet ouvrage collectif qui procède de la conviction que la rigueur scientifique peut être mise au service de la transformation du réel, parti-pris qui caractérise l’expérience interdisciplinaire du Groupe d’études sur le travail et la santé au travail (Gestes), Groupement d’Intérêt Scientifique soutenu par le CNRS. Affirmant cette nécessité d’une dé-libération du travail, tout autant que les ambivalences et l’incertitude qui entourent un tel projet de transformation économique et sociale, le présent ouvrage rassemble vingt contributions endossant des perspectives disciplinaires, théoriques et méthodologiques diverses.</p><p>La première partie de l’ouvrage aborde la question des effets des nouvelles formes d’organisation temporelle du travail, notamment pour les femmes. La deuxième partie de l’ouvrage, tout en explorant le contenu du travail, met en évidence les liens entre conditions d’emploi et conditions de travail, notamment en faisant apparaître la façon dont le statut d’emploi affecte la frontière entre travail et hors-travail. La troisième partie porte sur des formes «alternatives» d’organisation du travail réputées plus ouvertes à l’expression des salariés et questionne leur portée. La quatrième partie de l’ouvrage déplace le regard vers les dispositifs, managériaux ou légaux, qui sont censés favoriser la délibération sur le travail.</p>

Book chapters on the topic "Mesures temps réel":

1

ALFA, Attahiru Sule. "Files d’attente à temps discret à serveur unique avec temps d’interarrivée et de service interdépendants." In Théorie des files d’attente 1, 5–25. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9001.ch1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans plusieurs systèmes de files d’attente réels les temps d’interarrivée et de service sont, dans une certaine mesure, interdépendants. Ce concept n’a pas reçu toute l’attention qu’il mérite dans la littérature sur les files d’attente. Dans ce chapitre nous étudions les systèmes de files d’attente à temps discret dans lesquels les temps d’interarrivées dépendent des temps de service, puis nous généralisons l’idée au cas où les temps de service et les temps d’interarrivées sont interdépendants.

Conference papers on the topic "Mesures temps réel":

1

Vidal, R. "Décider dans un monde incertain : une question de sense-making, une mesure en temps réel." In Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56213.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Sonesson, Göran. "Rhetoric from the standpoint of the Lifeworld." In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La rhétorique du point de vue du monde de la vie La rhétorique de l’image dont parlait Barthes, reprise d’une manière beaucoup plus systématique dans les travaux du Groupe µ, n’est qu’une partie de la rhétorique classique, l’elocutio, mais c’est aussi celle qui a dominé dans l’Occident pendant ces derniers 500 ans. À l’extérieur de la sémiotique, cependant, le renouveau de la rhétorique à l’époque contemporaine tend à concevoir cette dernière comme la science qu’étudie la communication. Or, nous savons que la sémiotique a souvent été identifiée comme étant la science de la communication, et un autre candidat à ce titre est sans doute l’herméneutique. Alors que ces trois disciplines ont toutes trait au processus entier, elles le conçoivent dans une perspective chaque fois différente. La rhétorique prend le point de vue du créateur du message : il demande comment il faut s’exprimer pour obtenir l’adhérence de l’autre. L’herméneutique prend le point de vue du récepteur : sa question porte sur les moyens pour comprendre le message de l'autre. La sémiotique prend une position intermédiaire aux deux autres, c’est-à-dire au sein de la phase allant de l’artefact à sa concrétisation : elle demande quelles sont les ressources disponibles pour faire se produire le processus. À une telle rhétorique informée par la sémiotique la contribution du Groupe µ a été de toute première importance. Cependant, l’investigation des ressources disponibles, qui sont différentes dans le cas de l’image que dans celui de la langue, peut recevoir une base plus certaine en partant du monde de la vie, dans le sens de la phénoménologie, qui est aussi celui de l’écologie dans le sens de Gibson et le monde naturel tel que le comprend Greimas. Si l’on veut comprendre la manière dont la divergence est produite dans les images, il faut commencer par considérer ce qui est donné pour acquis, dans le sens à la fois de ce qui est normal, et de ce qui est normatif. Dans le monde de la vie, il y a certaines choses qui ont tendance à se présenter ensemble, en contiguïté ou comme des parties d’un tout (désormais, la factorialité). C’est la dimension indicielle. Mais le sens commun s'attend également à ce que les choses qui apparaissent ensemble soient suffisamment différentes pour pouvoir être distinguées, sans aller à l'extrême opposé de s’exclure mutuellement (une observation qui peut être entendue comme une généralisation de ce que le Groupe µ dit sur la norme de l’image, la homomatérialité et la hétéroformalité). En ce sens, il y a une rhétorique de trop de ressemblance ainsi que de trop de différence. Nous appellerons ceci la dimension iconique. Une troisième rhétorique prend son point de départ dans le caractère de signe de l'image. Nos attentes sont déçues tant en trouvant une trop grande partie de la réalité dans l'image qu’en rencontrant des niveaux supplémentaires de fiction au sein du contenu pictural. On peut appeler ceci la dimension symbolique. Enfin, les images remplissent des fonctions différentes dans une société donnée et sont, en raison de ce fait, imputables à diverses catégories, donnant ainsi lieu à une quatrième rhétorique dans laquelle nos attentes, en ce qui concerne les catégories sociales auxquelles les images sont assignées, ne sont pas remplies. On peut parler ici d’une dimension de catégorisation socioculturelle. Avant d’aborder les figures rhétoriques, ou ce qui en tient lieu, il est cependant nécessaire de discuter dans quelle mesure les ressources des images comprennent une part de dispositio, dans d’autres termes, une structure argumentative. Si nous définissons une affirmation comme étant une construction verbale, alors il est trivialement vrai que les images ne peuvent rien affirmer. Toutefois, si nous définissons une affirmation plus simplement comme une opération, au moyen de laquelle une propriété particulière est assignée à une entité particulière, alors il est possible pour l'image de faire des affirmations à la façon des images. Or, même ceci peut sembler impossible, s’il est vrai que les images, comme on l’a souvent dit, ne font que reproduire le monde de notre expérience. Au contraire, il faut admettre que les images peuvent se servir des arguments qui, dans le sens de Perelman, s’appuient sur la structure de la réalité ou servent à changer cette structure-là. Il s’ensuit que les transformations homogènes, contrairement à ce que suggère le Groupe µ, font aussi partie de la rhétorique, mais de la rhétorique de la dispositio. Considérée comme l’une des transformations possibles à partir du monde de la vie, la première dimension de la rhétorique correspond plus directement à la rhétorique telle qu’elle a été conçue par le Groupe µ, mais en retournant aux fondements jetés par la sémiotique phénoménologique proposée dans Pictorial concepts (1989). Contrairement au Groupe µ, nous proposons de distinguer les transformations portant sur la factorialité (la relation des parties au tout) et celles concernant la contiguïté. C’est « l’objet indépendant », dans le sens de James Gibson, qui fait la différence entre la contiguïté et la factorialité : il s’agit d’un degré d’intégration plus ou moins poussée. En fait, il y a sans doute des cas intermédiaires entre l’objet indépendant avec ses parties et la constellation arbitraire, mais ces cas-là sont aussi qualitativement vécus : le jeu, la série, l’ensemble. La rhétorique, de ce point de vue, relève de la méréologie, la science des parties et du tout, formalisée par Lesniewski en tirant son inspiration de Husserl et de Twardowski. Notre deuxième observation concerne la nature de l’opération nous faisant passer du monde de la vie à l’image. Dans la majorité de cas, l’opération rhétorique, pour fonctionner, à besoin non pas d’une absence de ce qui est attendu ou de la présence de quelque chose qui n’est pas attendu, mais des deux à la fois. Rares sont les cas (surtout s’agissant de la contiguïté) où une simple absence peut créer un effet de rhétorique. Dans les termes de la rhétorique générale d’abord conçue par le Groupe µ, la substitution est une opération rhétorique plus sûre que l’addition ou la suppression. D’autre part, dans le cas de la factorialité, l’effet est tellement différent selon les relations entre le tout et les parties qu’il faut spécifier la nature du rapport de la partie au tout. Il faut surtout distinguer le cas où quelque chose est ajouté à un tout qui est déjà en soi un objet indépendant, et le cas où les parties font partie d’un autre objet indépendant que le tout qui est perçu. Nos attentes peuvent être déçues par d’autres opérations que l’absence ou la présence d’un élément. Il peut y avoir une contradiction entre l’élément attendu et l’élément réellement présent. C’est la dimension iconique de la rhétorique. Les images, il est vrai, ne peuvent pas présenter des contradictions proprement dites, mais elles peuvent comporter toute sorte de manifestations d’une ressemblance ou d’une différence plus grande que ce que l’on a anticipé. Cet effet est présent dans plusieurs exemples considérés par le Groupe µ, sans que la spécificité de l’opération soit prise en compte. S’agissant d’un signe, en l’occurrence d’une image, il y a toujours un risque de confusion entre le signe et ce qui est signifié, et il est possible d’en tirer une rhétorique. À un extrême, le signe peut incorporer des objets réels ; à l’autre extrême, il peut contenir d’autres signes, notamment d’autres images, comme c’est le cas avec les images représentant d’autres images. Il s’agit donc de la dimension symbolique de la rhétorique. Finalement, la catégorisation des signes, dans ce cas les images, peut donner lieu à une rhétorique plus clairement socioculturelle. Les images peuvent être catégorisées en tenant compte de leur manière de construction, de la fonction qu’elles sont censées remplir dans la société, ou de leur manière de circuler à l’intérieur de la société. Les attentes qui peuvent être déçues dans ces cas ne concernent pas seulement l’appartenance de certaines images à des catégories particulières, mais surtout la combinaison de certaines catégories de construction avec certaines catégories de fonction et certaines catégories de circulation. Toute l’aventure du modernisme dans l’art plastique peut être conçue comme un vaste geste rhétorique à partir de la notion d’art à la fin du 18e siècle : une peinture à l’huile (construction) circulant dans des salons, des galeries et des musées (circulation) ayant pour but de produire un effet de plaisir esthétique (fonction). Dans le présent texte, j'ai suggéré que, contrairement aux signes verbaux, les images sont immédiatement rhétoriques, parce qu'elles nous offrent en même temps leur similitude et leur différence par rapport au monde de la perception. Par conséquent, j'ai fait observer que la rhétorique des images doit être fondée sur les structures de perception telles qu’elles apparaissent au sens commun, surdéterminées par le monde de la vie socioculturel spécifique. La dimension primaire de la rhétorique de l’image, l’indexicalité, dérive sa signification d'un écart par rapport à l'intégration relative des voisinages, des objets indépendants et des totalités de niveaux supérieurs. Elle peut concerner la contiguïté ou la factorialité, mais elle suppose d'habitude à la fois la présence de quelque chose d’inattendu et l'absence de quelque chose de prévu. L’iconicité, qui détermine la deuxième dimension, est fondée sur l'expectative d'une différenciation relative des objets du monde, qui ne suppose pas trop de similitude, ni trop de dissimilitude. La troisième dimension dépend du caractère fictif de l’image comme signe, dont les niveaux peuvent être confondus soit par une expérience trop directe, soit par des degrés de fiction trop nombreux. Finalement, la quatrième dimension concerne l'image en tant qu’objet social, faisant partie de certaines catégories de construction, de circulation, et de fonction. L'avantage de cette conception, par rapport au modèle de Groupe µ auquel il est endetté, consiste en son attention plus proche aux structures de la perception du sens commun.

Reports on the topic "Mesures temps réel":

1

BACCELLI, François, Sébastien CANDEL, Guy PERRIN, and Jean-Loup PUGET. Grandes Constellations de Satellites : Enjeux et Impacts. Académie des sciences, March 2024. http://dx.doi.org/10.62686/2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le nouvel âge spatial (NewSpace) marque l’avènement d’une ère nouvelle dans l’utilisation de l’espace caractérisée par une ouverture de l’espace à de nouveaux acteurs fondée sur de nouvelles technologies spatiales, par de nouvelles fonctionnalités pour les satellites mis en orbite et par le développement de constellations de satellites, principalement dans les domaines des communications et de l’observation de la Terre. Ces développements s’appuient sur des avancées scientifiques et technologiques de premier plan ainsi que sur des investissements publics et privés considérables, notamment aux États-Unis, en Chine et dans une moindre mesure en Europe. Des flottes de petits satellites en orbite basse ou moyenne viennent remplacer ou s’ajouter aux grands satellites géostationnaires qui prédominaient dans la phase précédente. Alors que l’espace était auparavant réservé à un petit nombre d’États et de grands groupes industriels, on observe actuellement l’émergence de nouveaux États spatiaux, de nouveaux groupes industriels comme SpaceX ou Amazon, ainsi que d’un grand nombre de jeunes pousses. On note l’émergence d’entreprises disposant de capacités de lancement, de fabrication de satellites et qui prennent également le rôle d’opérateurs de télécommunications et de producteurs de contenu. Le résultat le plus visible du déploiement de ces nouveaux réseaux spatiaux est de permettre des connexions Internet à haut débit et faible latence en tout point du globe terrestre. Combinés à des capacités d’observation de la Terre, ces nouveaux moyens de communications permettent aussi d’agir en temps-réel dans toute région, y compris dans celles dépourvues d’équipements autres que les terminaux. Ces réseaux spatiaux ont, de plus, de remarquables propriétés de résilience en comparaison des réseaux terrestres. Des considérations géostratégiques et militaires se combinent donc avec des modèles économiques en évolution rapide pour expliquer les investissements massifs en cours dans ce domaine. Toutefois, l’absence de régulation internationale du domaine conduit à une course pour l’occupation des orbites et des fréquences, course qui a déjà de graves conséquences sur tout un ensemble de domaines. Ces constellations auront potentiellement un impact très négatif sur l’astronomie dans le domaine optique visible et infrarouge ainsi que sur la radioastronomie. Elles posent aussi un problème majeur qui est celui de l’encombrement de l’espace avec l’augmentation du nombre des débris satellisés issus des lancements ou des collisions entre satellites et avec la possible atteinte d’une phase de collisions en chaîne. De plus, d’un point de vue environnemental, les conséquences d’une multiplication des lancements et des rentrées incontrôlées dans l’atmosphère sont, elles aussi, préoccupantes. Par ailleurs, cette absence de régulation du domaine conduit aussi à une perte de souveraineté puisque ces nouveaux réseaux de communications satellitaires n’appliquent aucune des règles que les États imposent aux réseaux de communications terrestres opérant sur leurs territoires. Une solution durable et globale doit être apportée à ces problèmes, avant que des dommages majeurs et potentiellement irréversibles soient infligés à l’environnement de la planète, aux équilibres géostratégiques, à la démocratie et à la science. Si l’Académie des sciences considère que la France et l’Europe doivent renforcer leurs actions scientifiques et industrielles dans ce domaine pour pouvoir bénéficier des avancées remarquables de ces nouveaux réseaux et disposer à terme d’un réseau de communication résilient et sécurisé, elle recommande aussi de travailler en parallèle au renforcement de la régulation du domaine dans le but de garantir un accès durable aux ressources orbitales et fréquentielles, ainsi qu’une protection des domaines négativement impactés, au premier rang desquels l’astronomie et l’environnement.

To the bibliography