Siga este enlace para ver otros tipos de publicaciones sobre el tema: Prévision en temps réel.

Tesis sobre el tema "Prévision en temps réel"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Prévision en temps réel".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Villien, Christophe. "Prévision de trajectoires 3-D en temps réel". Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/VILLIEN_Christophe_2006.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Monovskaya, Anna. "Prévisions temps-réel des conditions dynamiques critiques dans les systèmes contrôlés par impulsions". Troyes, 2005. http://www.theses.fr/2005TROY0001.

Texto completo
Resumen
La conversion d'énergie sûre et fiable est étudiée dans le cadre de prévisions temps-réel des conditions critiques des systèmes contrôlés par impulsions (PECS). Cette étude considère des variations réalistes des paramètres d'environnement, suivant l'énergie de contrôle et les paramètres intrinsèques des PECS. Le problème est résolu en trois étapes successives inter-liées : analyse de stationnarité de l'état courant du système, prévision linéaire pas à pas et prévision à long terme des conditions critiques. Ce travail vise en particulier à améliorer l’efficacité des prévisions temps-réel des conditions critiques dans les dynamiques des PECS, par des décisions linéaires temps-réel basées sur l’état du système à l’aide des séries temporelles du signal de sortie et des données a priori sur les dynamiques, en utilisant l’approche d’analyse de bifurcation et les régularités fractales des dynamiques. Pour atteindre cet objectif, l’idée fondamentale consiste 1) à représenter en temps-réel l’état du système dans des espaces 2-D spécifiques dans lesquels les domaines potentiels de modification de dynamiques sont préalablement délimités, puis 2) à prédire l’évolution des dynamiques par rapport aux limites de bifurcation dans ces domaines. Enfin, la possibilité de délimiter les domaines de modification sans recouvrement mutuel et d’y structurer les états stables du système, est révélée par les régularités fractales les dynamiques du PECS. Un algorithme de prévision temps-réel, basé sur l’idée précédente est alors proposé, avec des résultats de simulation en accord avec les études expérimentales
The safe and reliable energy conversion based on real-time emergency forecasting of the dynamics of pulse energy conversion systems (PECS) is studied in this thesis under realistic variations of environmental parameters, of PECS input energy and also of parameters of PECS themselves. The study is realized following three interrelated successive stages: present state stationarity analysis of the system, short-term emergency forecasting one-to-one and long-term forecasting. Accordingly, the particular purpose of this thesis is to increase the efficiency of real-time processes of emergency forecasting in PECS dynamics, based on decision-making one-to-one in the present system state by the both output signal time series and a-priori data on dynamics, with use of the bifurcation approach and PECS dynamics fractal regularities. The fundamental idea used for this purpose achievement consists in that, the present state of the system is mapped in real-time into 2-D specific spaces in which the motion existence domains are preliminarily formed, then the dynamics evolution is forecasted regarding the bifurcation boundaries of these domains. And the possibility of both, formation of motion existence domains without overlapping between them and structurization of stable system states within each of the domains, is stipulated by PECS dynamics fractal regularities. The particular algorithm of real-time emergency forecasting based on the abovementioned idea is worked out, with the results of numerical simulations in agreement with the experimental studies
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Temimi, Marouane. "La prévision en temps réel des charges de polluants dans un réseau d'assainissement urbain". Mémoire, École de technologie supérieure, 2002. http://espace.etsmtl.ca/804/1/TEMIMI_Marouane2002.pdf.

Texto completo
Resumen
Le présent travail vise le développement des méthodologies de prévision et de validation, en temps réel, des charges de polluants dans un réseau d'assainissement urbain. La méthodologie de prévision préconisée s'est basée sur le modèle de "rating curve". Le modèle a été modifié afin de surmonter une de ses faiblesses. Le filtre de Kalman a été utilisé pour identifier les paramètres du modèle en temps réel. L'approche de validation développée se base sur le principe de la redondance de l'information. Un modèle autoregressif a été utilisé comme indicateur de la tendance de variation à court terme. Le modèle de "rating curve" a été également utilisé pour simuler les charges de polluants en temps réel. Entre la valeur mesurée et simulée, celle qui se rapproche le plus de la valeur prévue par le modèle autoregressif est retenue. Les méthodologies développées ont été testées avec succès sur le bassin du secteur I de la ville de Verdun (Québec).
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Hans, Etienne. "Modélisation des lignes de bus pour la prévision temps réel et la régulation dynamique". Thesis, Vaulx-en-Velin, Ecole nationale des travaux publics, 2015. http://www.theses.fr/2015ENTP0006/document.

Texto completo
Resumen
Le bus est le moins cher des transports en commun. En contrepartie, il est beaucoup plus difficile à exploiter que le tramway ou le métro qui sont mieux protégés des influences extérieures. Un exemple typique est l’apparition de trains de bus, groupes de véhicules appartenant à la même ligne et arrivant ensemble à un arrêt. Ce phénomène augmente le temps d’attente moyen des usagers aux arrêts et induit un mauvais usage des bus disponibles. Cette thèse développe les outils permettant de garantir la régularité des lignes. Les recherches menées au cours de cette thèse s’articulent suivant deux directions.Un premier constat est que les modèles de lignes de bus existants ne prennent pas en compte les éléments extérieurs que sont les feux de circulation et le trafic environnant. L’absence d’une modélisation mixte intégrant aussi bien les dynamiques internes des lignes que les influences extérieures contraint fortement la diversité des stratégies de contrôle qui ont été proposées jusqu’ici. En effet, les régulations s’appliquent principalement au niveau des arrêts par l’intermédiaire des conducteurs et ne cherchent jamais à réguler le trafic à l’aide des feux de circulation. Un premier axe de recherche développé dans cette thèse est le raffinement des modèles de bus pour prendre en compte le trafic.Plusieurs méthodes d’estimation de temps de parcours sur un boulevard à feu sont proposées. Elles sont basées sur le modèle LWR, compromis fort satisfaisant entre simplicité d’usage et robustesse pour reproduire des situations réelles.Un second constat est que les stratégies de régulation classiques ne sont que rarement basées sur une prévision à court-terme de l'état du système. Elles sont donc souvent actionnées une fois que la situation est trop dégradée, ce qui les rend parfois inaptes à compenser l'instabilité des lignes. Le deuxième axe de recherche consiste à appliquer les modèles raffinés dans un contexte d’exploitation en temps-réel. Le modèle prévoit l'évolution des lignes de bus à court terme, ce qui permet d’actionner préventivement une stratégie de régulation adaptée. En particulier, une méthode de prévision à court terme est développée et testée sur des données réelles. Elle est ensuite combinée à une méthode récente de contrôle des bus
Bus is cheaper than other transport modes. However, maintaining optimal operations is harder than for streetcars or subways since buses are surrounded by traffic flows. Sometimes, buses of the same route bunch and travel together instead of keeping constant time headways. This phenomenon increases the average waiting time of passengers. As a result, they may tend to shift to other transport modes. This thesis proposes some methods to keep bus routes regular. Two main lines of research are investigated.First, classical models of bus routes do not account for external events like traffic signals and traffic flows. Due to this gap, existing control strategies only apply on buses through their drivers.Traffic flows are not controlled to favor buses compared to cars. Thus, the first area of research consists in refining bus models to account for external events. Several travel time estimation methods on urban arterials are proposed. They are based on the kinematic wave model (LWR). It is known to be a fine trade-off between simplicity and robustness to properly reproduce traffic dynamics.Second, control strategies are often applied once the bus route is too disrupted to be restored to regularity. Predictions of future bus route states could improve the efficiency of regulations. The second area of research consists in using the refined bus models in real time operations. The model forecasts the evolution of buses on their route for short-term. The predictions are evaluated thanks to real data to guarantee their quality. Then it enables regulations to be applied before bunching. In particular, height holding control methods are presented and compared in simulation
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Aumond, Romain. "La non-linéarité cyclique, prévision en temps réel et son application à la gestion d'actifs". Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAG008.

Texto completo
Resumen
Ce manuscrit de thèse se donne pour objet de rapprocher le cadre méthodologique d'identification en temps réel des dynamiques du cycle économique à la gestion d'actifs. Le cycle économique est caractérisé par des phases d'expansion et de récession dont la durée et l'amplitude sont hétérogènes. Les données macroéconomiques qui servent à identifier les phases du cycle sont marquées par des délais de publication et une asynchronicité dans leur disponibilité. Les modèles à facteurs dynamiques à changements de régimes markoviens sont une solution privilégiée pour gérer ces spécificités. Dans le sillage de l'événement extrême du Covid-19 (du point de vue de l'amplitude du choc et de sa relative courte durée), une grande partie des modèles employés jusque-là pour identifier et dater les changements de régimes dans le cycle économique sont devenus inaptes à capter des retournements de plus faible envergure.Le premier chapitre de cette thèse s'emploie à développer une extension des modèles mentionnés plus haut par le biais d'une volatilité dynamique dans le mouvement du cycle économique sous-jacent. Cette solution minore l'impact des chocs extrêmes dans le processus d'identification des régimes tout en les conservant dans le but d'établir une détection plus robuste des futurs retournements conjoncturels.Le délai et l'asynchronicité de disponibilité des données macroéconomiques sont un enjeu crucial pour les décideurs politiques et les agents de marché. Le deuxième chapitre de ce manuscrit introduit et démontre l'utilité de considérer des données de prix de marchés afin d'établir une mesure plus concomitante des retournements conjoncturels. Une classe particulière d'actifs, les "asset swap spreads", lorsqu'ils sont agrégés, se révèlent produire des évaluations coïncidentes des retournements conjoncturels. Ces prix permettent de mitiger le coût d'opportunité induit par l'absence ou le délai d'information conjoncturelle officielle. Appliqués dans le cadre de stratégies de couverture, ces signaux se révèlent être d'une grande utilité pour l'investisseur.L'allocation d'actifs se doit de prendre en compte les dynamiques conjoncturelles mais ce seul facteur n'est pas suffisant dans le processus de construction de portefeuille. Le troisième chapitre déploie une allocation de portefeuille basée sur l'identification de régimes macroéconomiques en ajoutant des signaux relatifs au sentiment de marché ainsi qu'à la posture de politique monétaire. Comparées à celles d'un portefeuille classique 60% actions/40% obligations, les performances basées sur l'approche à trois signaux permettent à l'investisseur d'optimiser le couple rendement/risque tant dans les périodes de stress que de croissance
This thesis aims to reconcile real-time identification of business cycle phases with asset management. The business cycle is characterized by phases of expansion and recession, with varying durations and amplitudes. Macroeconomic data used to identify these phases are marked by publication delays and asynchronicity in their availability. Markov-switching dynamic factor models are a typical econometric framework to manage these characteristics. In the wake of the extreme event of Covid-19 (in terms of the shock's magnitude and its relatively short duration), many models previously employed to identify and date regime changes in the economic cycle have become inadequate for capturing smaller-scale reversals.The first chapter of this thesis develops an extension of the aforementioned methodological framework by introducing dynamic volatility into the unobserved business cycle dynamics. This solution reduces the impact of extreme shocks in the regime identification process while retaining them to establish a more robust detection of future cyclical reversals. The delay and asynchronicity of macroeconomic data availability are crucial issues for policymakers and market participants.The second chapter of this manuscript introduces and demonstrates the utility of considering market price data to establish a more concurrent measure of cyclical downturns. A particular class of assets, the "Asset Swap spreads" (a risk premium fixed between two counterparts exchanging future corporate bond coupons for a risk-free rate), when aggregated, produce coincident evaluations of macroeconomic recessions. These prices help mitigate the opportunity cost induced by the absence or delay of official macroeconomic information. When applied in the context of hedging strategies, these signals prove to be highly useful for investors. Asset allocation must take into account economic downturns, but this factor alone is not sufficient in the portfolio construction process.The third chapter deploys a portfolio allocation based on the identification of macroeconomic regimes, adding signals related to market sentiment and monetary policy stance. Compared to a classic 60% equities/40% bonds portfolio, the performance based on the three-signal approach allows investors to optimize the risk-adjusted return during both stressed and expansion periods
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Bernède, Jean-Pierre. "Algorithmes adaptatifs et qualitatifs de prévision des crues en temps réel : application au cas de l'Aveyron". Toulouse, INPT, 1990. http://www.theses.fr/1990INPT060H.

Texto completo
Resumen
A partir des hypotheses de conservation du gradient temporel intrinseque de hauteur (ou debit) en une station de prevision, de conservation de masse en regime transitoire a surface libre et par des essais de simulation sur la riviere aveyron, nous mettons en relief le role suffisamment explicatif, en situation de prevision de crues, des termes de gradients temporels, intrinseque de hauteur (ou debit), extrinseque de debit, associes a une hypothese de fermeture (sur les apports lateraux) par une integrale de dirac sur la pluie. Il en resulte dans un premier temps un modele de prevision des crues en temps reel, adaptatif par optimisation (sous contraintes) de l'erreur precedente, en association avec des lois qualitatives d'anticipation sur les variations de tendance a convexite negative. Finalement pour mieux prendre en compte la diversite des crues nous proposons un modele a ponderation evolutive sur le gradient temporel intrinseque du champ des hauteurs anamorphoses, sur le gradient temporel extrinseque de debit aux stations explicatives amonts et sur l'integrale de dirac de la pluie. L'anamorphose du champ des hauteurs et les parametres du modele sont indexes a un arbre de lois qualitatives analysant les changements potentiels de tendance en cours de realisation de l'evenement
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Yang, Xiaouliu. "Mise au point d'une méthode d'utilisation d'un modèle puis-débit conceptuel pour la prévision des crues en temps réel". Marne-la-vallée, ENPC, 1993. http://www.theses.fr/1993ENPC9327.

Texto completo
Resumen
Cette thèse a pour objectif de construire une méthodologie pour l’utilisation, en prévision des crues, d’un modèle pluie-débit conceptuel. Le modèle retenu pour cette étude est le modèle GR3J. Le premier problème a été de vérifier que le modèle GR3J peut être appliqué à un pas de temps nettement plus court que 24 heures. Ensuite, on a analysé les paramètres : surface de réponse, sensibilité et variabilité. Ces analyses ont suggéré une méthodologie pour la prévision des rues que l’on peut caractériser par : 1) ajustement rétroactif des paramètres avec raccordement au fonctionnement en continu du modèle, 2) fonction objectif d’ajustement comportant les deux dernières erreurs et les déviations des paramètres e 3) ajustement conjoint des paramètres et des niveaux des réservoirs pour garantir la continuité des débits. Cette méthodologie a été illustrée sur deux bassins versants expérimentaux français
The présent research is concerned with real-time flood forecasting based on conceptual rainfall-runoff modeling. The model used is GR3J model developed with daily time step. The first part of the study has focussed on validation of the model using hourly data and analysis of the model parameters : response surface, sensibility and variabiity. Founded upon the precedent step, a new methodology for adjusting model parameters has been worked out in the second part of the study. It is characterized by : 1) operational framework in which the adjustment is carried out over a short period in connection with the continuous operation of the model, 2) objective function involving the last two forecast errors and parameters deviations and 3) joint adjustment of model parameters with model state. The methodology has been tested on two french experimental basins
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Habaieb, Hamadi. "Contribution à l'étude critique des algorithmes de prévision de crue en temps réel : exemples de l'Aveyron et de la Medjerdah". Toulouse, INPT, 1987. http://www.theses.fr/1987INPT015H.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Vlavonou, Firmin. "Modèle factoriel dynamique contraint à régimes markoviens pour l'évaluation en temps réel du cycle économique". Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30237/30237.pdf.

Texto completo
Resumen
Cette thèse, composée de trois essais, identifie des modèles factoriels dynamiques de prévisions en temps réel du cycle économique. Il a pour objectif principal de proposer une structure de modèles d’analyse du cycle économique avec des données à hautes fréquences dans un contexte de révisions de donnée. Ceci est pertinent pour trois raisons. Premièrement, la prévision du cycle économique est une question centrale en macroéconométrie. Deuxièmement, les décideurs politiques bénéficieraient à avoir des informations à hautes fréquences et évaluées en temps réel sur les conditions économiques pour leur prise de décisions. Enfin, les décisions sont souvent prises en se basant sur les données sujettes à des révisions et l’incertitude relative de ces données doit être incorporée dans le processus d’élaboration de décision. Après un bref survol de la littérature sur le cycle économique et des modèles d’analyse des points tournants, nous proposons une structure rigoureuse d’estimation du Produit Intérieur Brut (PIB) mensuel réel des États-Unis. Le problème récurrent rencontré dans l’estimation de cette classe de modèles est que les estimations du PIB mensuel ne sont pas cohérentes avec celles trimestrielles et ces dernières à leur tour ne sont pas cohérentes avec les estimations annuelles. Notre approche résout ce genre de problème et facilite les interprétations intrapériodes. Dans le premier essai (chapitre 2), nous développons et estimons un modèle factoriel dynamique traitant le PIB mensuel comme une variable inobservable. Contrairement aux approches existantes, la moyenne trimestrielle de nos estimations mensuelles est exactement égale à l’estimation trimestrielle du «Bureau of Economic Analysis». Par contruction, nos estimations mensuelles ont l’avantage d’être à la fois en temps réel et facile à interpréter. Le second essai (chapitre 3) est une extension de la structure précédente en y ajoutant un modèle markovien de changements de régimes du cycle économique au modèle factoriel dynamique. Le modèle est maintenant un modèle avec trois niveaux à deux composantes inobservables. Nous portons une attention particulière à la sensibilité des indicateurs usuels du cycle économique aux points tournants. L’indice de production industrielle, les ventes manufacturières et de commerce transmettent plus rapidement à la composante commune (PIB mensuel) les chocs qu’ils subissent du cycle économique que l’emploi. Dans le dernier essai (chapitre 4), nous intégrons les révisions de données dans le modèle factoriel dynamique à régimes markoviens dans une perspective d’évaluer leurs effets sur le cycle économique. Il apparait que les révisions de données ont un impact significatif sur les comouvements entre les variables et les points tournants sans compromettre la nature asymétrique du cycle économique. Mots clés : Modèle Factoriel Dynamique (MFD), Haute fréquence, Temps réel, Régimes markoviens, Composantes inobservables, Révisions, Comouvement, Points tournants, Asymétrie, Cycle économique.
This thesis is composed of three essays on real-time forecasting dynamic factor models. The main objective is to provide frameworks for high-frequency business cycle analysis in the presence of data revisions. This is relevant for three reasons. First, business cycle forecasting is a central question in macroeconometrics. Secondly, policy-makers would benefit from having access to timely, high-frequency information about business conditions to inform their decisions. Finally, decisions must frequently be made based on data that are subject to revision, and this data uncertainty should be incorporated into the decision-making process. After a review of the empirical business cycle literature and of models of business cycle turning points, we propose a rigorous framework for estimating monthly real US Gross Domestic Product (GDP). A recurring problem in this class of models is that estimates for monthly GDP are generally not consistent with quarterly estimates in the same way that quarterly estimates are not consistent with annual data. Our approach solves this problem. In the first essay (chapter 2), we develop and estimate a dynamic factor model treating the monthly Gross Domestic Product (GDP) as an unobservable latent variable. In contrast with existing approaches, the quarterly averages of our monthly estimates are exactly equal to the Bureau of Economic Analysis quarterly estimates. By construction, our monthly estimates have the advantage of being both timely and easy to interpret. The second essay (chapter 3) extends this framework by adding a Markov-switching model of business cycle regimes to the dynamic factor model. The model is now one with three levels, two of which have latent dependent variables. We pay particular attention to the sensibility of the usual indicators at turning points. The industrial production index, manufacturing and trade sales transmit more information about business cycle shocks to the common component (monthly GDP) than does employment. Finally, we integrate data revisions into our Markov- switching dynamic factor model in order to evaluate the effects of the revisions process on monthly estimates. It appears that data revisions have a significant impact on the co-movement of variables and on turning points without compromising the asymmetric nature of the business cycle. Keywords : Dynamic Factor Model (DFM), High-frequency, Real-time, Markov-switching, unobservable components, Revisions, co-movement, Turning points, Asymmetric, Business cycle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Munier, Simon. "Modélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé". Phd thesis, AgroParisTech, 2009. http://tel.archives-ouvertes.fr/tel-00525756.

Texto completo
Resumen
Pour la gestion en temps réel des étiages comme pour celle des crues, l'une des principales missions des gestionnaires de bassin consiste à prévenir les situations de crise, généralement définies par des franchissements de débits seuils en différents points stratégiques, afin d'en limiter les dégâts, tant économiques et écologiques que matériels et humains. La thèse propose une méthodologie de synthèse et d'identification d'un modèle de simulation des débits, intégrant les phénomènes de transferts hydrauliques (propagation en cours d'eau) et hydrologiques (transformation de la pluie en débit), ainsi que les transferts relatifs aux prélèvements dans le cas des étiages. Le modèle proposé, construit dans le souci constant des contraintes de l'opérationnel telles que la robustesse face aux aléas du terrain, l'assimilation des données en temps réel ou la commande automatique des vannes de barrage, présente un module hydraulique à base physique simplifiée couplé, selon une approche semi-distribuée, à un module hydrologique global conceptuel. Cette démarche permet la prise en compte de débits latéraux non jaugés dans le transfert en cours d'eau. L'approche est validée à travers des exemples théoriques et divers cas d'application réels : transfert en rivière soumis à l'influence de la marée, synthèse d'un contrôleur boucle ouverte sur un canal d'irrigation, simulation de débits à l'exutoire de divers bassins versants français, prévision des crues, synthèse d'observateurs d'états pour la reconstitution de prélèvements.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Degas, Augustin. "Auto-structuration de trafic temps-réel multi-objectif et multi-critère dans un monde virtuel". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30058.

Texto completo
Resumen
Dans de nombreux domaines, la simulation est un outil puissant pour apprendre, visualiser, et comprendre l'impact d'une décision à un temps donné sur l'ensemble du système. Le domaine de la navigation aérienne ne fait pas exception. Les outils de simulation de trafic aérien sont essentiels dans la gestion du trafic aérien, et doivent être capables de générer une large variété de scénarios réalistes tout en prenant en compte différentes contraintes observables par l'utilisateur de simulations, appelées situations, telle qu'une densité de trafic, une typologie de flux, des collisions, un évènement météorologique, ou tout autre évènement émergeant. Structurer une simulation de trafic pour obtenir le réalisme et différentes situations est une tâche complexe, de par les nombreux objectifs et les nombreux critères à respecter, la diversité des entités mobiles et leurs multiples interactions, ainsi que la dynamique de l'environnement. Dans le domaine de la navigation aérienne, cette complexité est très souvent gérée par des humains, que ce soit l'expert scénariste qui génère le scénario de trafic au prix de nombreuses heures d'essais-erreur, ou par les acteurs humains lors de la simulation qui gèrent l'adaptation temps-réel du trafic si celle-ci est requise. Les approches de résolution classiques ont montré leurs limites pour faire face à la complexité de ces applications. Dans cette thèse, nous proposons de résoudre la structuration temps-réel d'une simulation de trafic multi-objective et multi-critère par l'utilisation de la théorie des AMAS (Adaptive Multi-Agents Systems). Dans ces systèmes, les agents poursuivent des buts locaux et interagissent d'une manière coopérative. Au travers de leurs interactions locales, le système est rendu plus robuste et s'auto-adapte face à la dynamique de l'environnement, permettant une émergence de la fonction globale. Suite à plusieurs études, cette théorie a montré son adéquation pour la résolution de problèmes complexes et dynamiques. L'objectif de ce travail est de modéliser et de spécialiser cette théorie pour la structuration de simulation de trafic temps-réel, multi-objectif et multi-critère. Pour cela, le modèle d'agents AGATS avec des comportements et des interactions coopératifs et locaux a été défini. Ce modèle est composé de deux sous-modèles, AGEAS, pour la structuration de la simulation en fonction d'un scénario, et CAAMAS, pour l'adaptation des entités mobiles aux scénarios et à la dynamique de la simulation. Les résultats de l'instantiation de ces deux modèles pour les simulations de trafic aérien montrent l'adéquation de l'approche proposée pour la définition pour la génération autonome de scénario
In many areas, simulation is a powerful tool to learn, visualize, and understand the impact of a decision at a given time on the entire system. The area of air navigation is not an exception. Air traffic simulation tools are essential in air traffic management, and must be able to generate a wide variety of realistic scenarios while taking into account different constraints observable by a simulation user, called situations such as traffic density, a flow typology, collisions, a weather event, or any other emerging event. Structuring traffic simulation to achieve realism and different situations is a complex task, given the many objectives and criteria to meet, the diversity of mobile entities and their multiple interactions, and the dynamics of the environment. In the field of air navigation, this complexity is very often managed by humans, whether by the scriptwriter expert who generates the traffic scenario after several hours of trial and error, or by human actors during the simulation that manage the real-time adaptation of the traffic if needed. Traditional resolution approaches have shown their limits to face the complexity of these applications. In this thesis, we propose to solve real-time structuring of a multi-objective traffic simulation by using the AMAS theory (Adaptive Multi-Agents Systems). In these systems, agents pursue local goals and interact in a cooperative manner. By their local interactions, the system is more robust and self-adapt to the dynamics of the environment, allowing the global function to emerge. After several studies, this theory has shown its adequacy to solve complex and dynamic problems. The objective of this work is to model and specialize this theory for the real-tile structuring of multi-objective and multi-criteria traffic simulation. For this purpose, the AGATS agent model with cooperative and local behaviors and interactions has been defined. This model is composed of two sub-models, AGEAS, for structuring the simulation according to a scenario, and CAAMAS, for enabling mobile entities to self-adapt to the scenarios and dynamics of the simulation. The results of the instantiation of these two models for air traffic simulation show the adequacy of the proposed approach for autonomous scenario generation
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Barthélémy, Sébastien. "Assimilation de données ensembliste et couplage de modèles hydrauliques 1D-2D pour la prévision des crues en temps réel. Application au réseau hydraulique "Adour maritime". Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0047/document.

Texto completo
Resumen
Les inondations sont un risque naturel majeur pour les biens et les personnes. Prévoir celles-ci, informer le grand public et les autorités sont de la responsabilité des services de prévision des crues. Pour ce faire ils disposent d'observations in situ et de modèles numériques. Néanmoins les modèles numériques sont une représentation simplifiée et donc entachée d'erreur de la réalité. Les observations quant à elle fournissent une information localisée et peuvent être également entachées d'erreur. Les méthodes d'assimilation de données consistent à combiner ces deux sources d'information et sont utilisées pour réduire l'incertitude sur la description de l'état hydraulique des cours d'eau et améliorer les prévisisons. Ces dernières décennies l'assimilation de données a été appliquée avec succès à l'hydraulique fluviale pour l'amélioration des modèles et pour la prévision des crues. Cependant le développement de méthodes d'assimilation pour la prévision en temps réel est contraint par le temps de calcul disponible et par la conception de la chaîne opérationnelle. Les méthodes en question doivent donc être performantes, simples à implémenter et peu coûteuses. Un autre défi réside dans la combinaison des modèles hydrauliques de dimensions différentes développés pour décrire les réseaux hydrauliques. Un modèle 1D est peu coûteux mais ne permet pas de décrire des écoulement complexes, contrairement à un modèle 2D. Le simple chainage des modèles 1D et 2D avec échange des conditions aux limites n'assure pas la continuité de l'état hydraulique. Il convient alors de coupler les modèles, tout en limitant le coût de calcul. Cette thèse a été financée par la région Midi-Pyrénées et le SCHAPI (Service Central d'Hydrométéorolgie et d'Appui à la Prévisions des Inondations) et a pour objectif d'étudier l'apport de l'assimilation de données et du couplage de modèles pour la prévision des crues. Elle se décompose en deux axes : Un axe sur l'assimilation de données. On s'intéresse à l'émulation du filtre de Kalman d'Ensemble (EnKF) sur le modèle d'onde de crue. On montre, sous certaines hypothèses, qu'on peut émuler l'EnKF avec un filtre de Kalman invariant pour un coût de calcul réduit. Dans un second temps nous nous intéressons à l'application de l'EnKF sur l'Adour maritime avec un modèle Saint-Venant. Nous en montrons les limitations dans sa version classique et montrons les avantages apportés par des méthodes complémentaires d'inflation et d'estimation des covariances d'erreur d'observation. L'apport de l'assimilation des données in situ de hauteurs d'eau sur des cas synthétiques et sur des crues réelles a été démontré et permet une correction spatialisée des hauteurs d'eau et des débits. En conséquence, on constate que les prévisions à court terme sont améliorées. Nous montrons enfin qu'un système de prévisions probabilistes sur l'Adour dépend de la connaissance que l'on a des forçages amonts ; un axe sur le couplage de modèles hydrauliques. Sur l'Adour 2 modèles co-existent : un modèle 1D et un modèle 2D au niveau de Bayonne. Deux méthodes de couplage ont été implémentées. Une première méthode, dite de "couplage à interfaces", combine le 1D décomposé en sous-modèles couplés au 2D au niveau frontières liquides de ce dernier. Une deuxième méthode superpose le 1D avec le 2D sur la zone de recouvrement ; le 1D force le 2D qui, quand il est en crue, calcule les termes d'apports latéraux pour le 1D, modélisant les échanges entre lit mineur et lit majeur. Le coût de calcul de la méthode par interfaces est significativement plus élevé que celui associé à la méthode de couplage par superposition, mais assure une meilleure continuité des variables. En revanche, la méthode de superposition est immédiatement compatible avec l'approche d'assimilation de données sur la zone 1D
Floods represent a major threat for people and society. Flood forecasting agencies are in charge of floods forecasting, risk assessment and alert to governmental authorities and population. To do so, flood forecasting agencies rely on observations and numerical models. However numerical models and observations provide an incomplete and inexact description of reality as they suffer from various sources of uncertianties. Data assimilation methods consists in optimally combining observations with models in order to reduce both uncertainties in the models and in the observations, thus improving simulation and forecast. Over the last decades, the merits of data assimilation has been greatly demonstrated in the field of hydraulics and hydrology, partly in the context of model calibration or flood forecasting. Yet, the implementation of such methods for real application, under computational cost constraints as well as technical constraints remains a challenge. An other challenge arises when the combining multidimensional models developed over partial domains of catchment. For instance, 1D models describe the mono-dimensional flow in a river while 2D model locally describe more complex flows. Simply chaining 1D and 2D with boundary conditions exchange does not suffice to guarantee the coherence and the continuity of both water level and discharge variables between 1D and 2D domains. The solution lies in dynamical coupling of 1D and 2D models, yet an other challenge when computational cost must be limited. This PhD thesis was funded by Midi-Pyrénées region and the french national agency for flood forecasting SCHAPI. It aims at demonstrating the merits of data assimilation and coupling methods for floof forecasting in the framework of operational application. This thesis is composed of two parts : A first part dealing with data assimilation. It was shown that, under some simplifying assumptions, the Ensemble Kalman filter algorithm (EnKF) can be emulated with a cheaper algorithm : the invariant Kalman filter. The EnKF was then implemented ovr the "Adour maritime" hydraulic network on top of the MASCARET model describing the shallow water equations. It was found that a variance inflation algorithm can further improve data assimlation results with the EnKF. It was shown on synthetical and real cases experiments that data assimilation provides an hydraulic state that is in great agreement with water level observations. As a consequence of the sequential correction of the hydraulic state over time, the forecasts were also greatly improved by data assimilation over the entire hydraulic network for both assimilated and nonassimilated variables, especially for short term forecasts. It was also shown that a probabilistic prediction system relies on the knowledge on the upstream forcings ; A second part focusses on hydraulic models coupling. While the 1D model has a great spatial extension and describes the mono-dimensional flow, the 2D model gives a focus on the Adour-Nive confluence in the Bayonne area. Two coupling methods have been implemented in this study : a first one based on the exchange of the state variables at the liquid boundaries of the models and a second one where the models are superposed. While simple 1D or chained 1D-2D solutions provide an incomplete or discontinuous description of the hydraulic state, both coupling methods provide a full and dynamically coherent description of water level and discharge over the entire 1D-2D domain. On the one hand, the interface coupling method presents a much higher computational cost than the superposition methods but the continuity is better preserved. On the other hand, the superposition methods allows to combine data assimilation of the 1D model and 1D-2D coupling. The positive impact of water level in-situ observations in the 1D domain was illustrated over the 2D domain for a flood event in 2014
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Belaid, Ikbel. "On line-off line placement and scheduling of real time hardware tasks on dynamically reconfigurable platforms". Nice, 2011. http://www.theses.fr/2011NICE4019.

Texto completo
Resumen
Le placement et l’ordonnancement des tâches matérielles sont les éléments clés du système d’exploitation temps réel. Ces deux problèmes doivent être traités efficacement afin d’améliorer la qualité du placement exprimée par le taux de fragmentation de ressources et la latence de reconfiguration, et la qualité d’ordonnancement représentée par la durée d’exécution de l’application et la garantie des échéances. En utilisant les systèmes sur puce programmable, nous proposons d’exploiter les caractéristiques physiques de ces puces, en particulier la reconfiguration partielle dynamique. Nous traitons, dans premier temps, les tâches indépendantes. Nous suggérons une résolution analytique par des solveurs de programmation en nombres entiers mixtes qui se basent sur la méthode de séparation et évaluation pour réaliser le placement hors-ligne de ces tâches sur puce. La métaheuristique des abeilles est aussi proposer pour traiter ce problème. Nous proposons d’employer l’algorithme « Earliest deadline first » pour construire l’ordonnancement temps réel en ligne. Nous nous intéressons ensuite aux tâches dépendantes. En se basant également sur la programmation en nombres entiers mixtes, le placement et l’ordonnancement statiques des tâches matérielles périodiques, constituant un graphe acyclique orienté, sont élaborés. Quatre approches dynamiques sont proposées pour effectuer le placement et l’ordonnancement dynamique de plusieurs graphes sur différentes puces. Par les techniques de réutilisation et de prédiction, ces approches visent la réduction des temps d’exécution des graphes, la garantie des échéances et l’efficacité des ressources
The placement and scheduling of hardware tasks are the cores of the real-time operating system. Both problems must be solved efficiently to enhance the placement quality expressed by the rate of resource fragmentation and configuration overhead, and to improve the scheduling quality represented by the temporal spanning of the application and the guarantee of real-time constraints. In the context of the mixed architectures such as System on Programmable Chip (SoPC), we suggest exploiting the physical features of these architectures especially the partial run-time reconfiguration. The first part of the thesis deals with preemptive independents tasks. It suggests analytic resolution by means of mixed integer programming solver using the Branch and Bound method to achieve off-line placement of these tasks on a SoPC. The Bees metaheuristic is also proposed to handle this problem and we suggest employing dynamically the Earliest Deadline First algorithm to perform the real-time scheduling. The second part of the thesis focuses on dependent tasks where each one runs after the completion of all its proposed to resolve statically the placement and scheduling of periodic hardware tasks in a sole directed acyclic graph (DAG) on a SoPC. . Four dynamic approaches are also proposed to place and schedule dynamically multiple DAGs with unknown behavior on several SoPCs. Basing on prefetch and reuse techniques, these approaches aim to reduce the temporal spanning of DAGs, and to improve the guarantee of real-time constraints and resource efficiency
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Habert, Johan. "Prévisions des crues en temps réel sur le bassin de la Marne : assimilation in situ pour la correction du modèle hydraulique mono-dimensionnel Mascaret". Thesis, Toulouse, INPT, 2016. http://www.theses.fr/2016INPT0017/document.

Texto completo
Resumen
La prévision des crues et des inondations reste aujourd’hui un défi pour anticiper et assurer la sécurité des biens et des personnes. En France, le SCHAPI, qui dépend du MEDDE, assure ce rôle. Les niveaux et les débits d’un cours d’eau dépendent étroitement des interactions à différentes échelles entre les précipitations, les caractéristiques géométriques du cours d’eau et les propriétés topographiques, géologiques et pédologiques du bassin versant. Les modèles hydrauliques, utilisés dans le cadre de la prévision des crues, sont entachés d’incertitudes qu’il est nécessaire de quantifier et de corriger afin de mieux anticiper l’évolution hydrodynamique du cours d’eau en temps réel. L’objectif de ces travaux de thèse est d’améliorer les prévisions de hauteurs d’eau et de débits, sur le bassin de la Marne, issues des modèles hydrauliques utilisés dans le cadre opérationnel de la prévision des crues à partir de méthodes d’assimilation de données. Ces prévisions reposent sur une modélisation mono-dimensionnelle (1D) de l’hydrodynamique du cours d’eau à partir du code hydraulique 1D Mascaret basé sur la résolution des équations de Saint-Venant, enrichie par une méthode d’assimilation de données in situ utilisant un Filtre de Kalman Étendu (EKF). Ce mémoire de thèse s’articule en cinq chapitres, trois dédiés à la recherche et les deux derniers à l’application opérationnelle. Le chapitre 1 présente les données et les outils utilisés pour caractériser le risque inondation dans le cadre de la prévision des crues, ainsi que les modèles hydrauliques Marne Amont Global (MAG) et Marne Moyenne (MM), sujets d’application des méthodes d’assimilation de données développées dans cette étude. Le chapitre 2 est dédié à la méthodologie : il traite des différentes sources d’incertitudes liées à la modélisation hydraulique et présente les approches d’assimilation de données de type EKF appliquées dans cette étude à travers la maquette DAMP pour les réduire. Dans le chapitre 3, cette approche est appliquée aux modèles MAG et MM en mode réanalyse pour un ensemble de crues ayant touché le bassin de la Marne par le passé. Deux publications ont été insérées dans ce chapitre "étude". Dans le chapitre 4, les corrections appliquées dans le chapitre 3, sont validées à partir du rejeu de la crue de 1983 en condition opérationnelle avec le modèle MM. La quantification des incertitudes de prévision et la réalisation de cartes de zones inondées potentielles y sont aussi abordées. L’application de ces méthodes d’assimilation de données pour les modèles MAG et MM en opérationnel au SCHAPI au niveau national et au SPC SAMA au niveau local est présentée dans le chapitre 5. Cette thèse s’inscrit dans un contexte collaboratif où chacun apporte son expertise : la modélisation hydraulique pour le LNHE, les méthodes numériques pour le CERFACS et la prévision opérationnelle pour le SCHAPI. L’ensemble de ces travaux de thèse a permis de démontrer les bénéfices et la complémentarité de l’estimation des paramètres et de l’état hydraulique par assimilation de données sur les hauteurs d’eau et les débits prévus par un modèle hydraulique 1D, ce qui constitue un enjeu d’importance pour l’anticipation du risque hydrologique. Ces méthodes ont été intégrées dans la chaîne opérationnelle de prévision du SCHAPI et du SPC SAMA
Flood forecasting remains a challenge to anticipate and insure security of people. In France, the SCHAPI, wich depends on the MEDDE, takes this function. Water levels and discharges are highly dependent on interactions at different scales between rainfall, geometric characteristics of rivers and topographic, geological and soil properties of the watershed. Hydraulic models, used in the context of flood forecasting, are tainted by uncertainties which necessist to be quantified and corrected in order to better anticipate flow evolution in real time. The work carried out for this PhD thesis aims to improve water level and discharge forecasts on the Marne watershed, from hydraulic models used in the operational framework of flood forecasting using data assimilation methods. These forecasts come from a mono-dimensional (1D) hydraulic model Mascaret based on the resolution of Saint-Venant equations, improved by data assimilation methods using an Extended Kalman Filter (EKF). This thesis consists of five chapters, three dedicated to research and the two last to the operational application. The first presents data, tools and methods used to characterize the flood risk in the context of flood forecasting, as well as the Marne Amont Global (MAG) and Marne Moyenne (MM) models, subjects of application of data assimilation methods developed in this study. The second chapter covers hydraulic model uncertainties and data assimilation methodology (Kalman filter) applied in this thesis through DAMP in order to reduce them. In the third chapter, this approach is applied to the MAG and MM models for different flood events. In the fourth chapter, the April 1983 flood event allows to validate the corrections applied in the previous chapter for the MM model in an operational context. The uncertainties evaluations and the mapping of potential flooded zones are also reported. The real-time application of these data assimilation methods for MAG and MM models by SCHAPI and SPC SAMA is presented in the fifth chapter. This thesis takes place in a collaborative work where each member brings his own expertise : the hydraulic modeling for LNHE, the numeric methods for the CERFACS and operational forecasting for the SCHAPI. This thesis shows the benefits and complementarity of the evaluation of parameters and hydraulic state using data assimilation on water levels and discharges forcasted by a 1D hydraulic model, which is an important issue for the anticipation of hydrologic risk. These methods have already been integrated to the operational chain of flood forecasting of the SCHAPI and the SPC SAMA
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Cablé, Baptiste. "Vers la gestion de scénarios pour la reconnaissance et l'anticipation de situations dynamiques". Troyes, 2011. http://www.theses.fr/2011TROY0007.

Texto completo
Resumen
Cette étude est dédiée à la reconnaissance et l’anticipation des situations dynamiques à des fins d’assistance. Certains outils comme les Modèles de Markov Cachés ou les Réseaux de Petri sont déjà utilisés dans ce contexte mais pour pouvoir fonctionner en temps-réel, le concepteur doit préciser au préalable les différentes situations possibles. Nous proposons un algorithme générique qui acquiert lui-même les connaissances du système dynamique observé. Il s’adapte à l’utilisateur et aux situations rencontrées pour effectuer des prédictions. Nous représentons le déroulement des situations dynamiques sous forme de scénarios. Un scénario correspond à une période temporelle où les évènements ont une influence les uns sur les autres. Il est constitué d’une succession d’états et d’actions sous forme de symboles. Cet algorithme est inspiré du Raisonnement à Partir de Cas. Il a été imaginé et développé dans un souci de rapidité et pour une bonne gestion de l’évolution temporelle. La validation est effectuée par application à deux domaines indépendants. La première consiste à assister l’utilisateur d’un fauteuil roulant électrique. Sans connaissance initiale de l’environnement et après avoir appris les trajets habituellement effectués, l’algorithme décharge l’utilisateur d’une partie des commandes. Dans la seconde application, l’expérience de tous les utilisateurs d’un jeu multi-joueurs est collectée pour assister les joueurs débutants : la prédiction de l’issue du combat en cours leur est indiquée
Our study deals with the problem of recognition and anticipation of dynamic situations for user assistance. Existing tools like Hidden Markov Models or Petri Nets are already used in this context. However, learning this kind of models is complicated and slow. Thus, the de-signer has to specify every model of situation so that the program can work in real-time. Our solution is a generic algorithm which build itself the representation of the dynamic system. It adapts to the user and the situation in order to make predictions. Dynamic situations are modeled by scenarios. A scenario corresponds to a period during which every event has an influence on other. It is made of an ordered series of states and actions in the form of symbols. The algorithm is a kind of Case-Based Reason-ing method but some modifications are made. Representations and computations are oriented towards simplicity and speed. Moreover, the algorithm is suitable for problems which evolve in time. The approach is applied to two distinct fields. The first application consists in assisting the user of a powered wheelchair. Without knowing initially the environment, the algorithm memorizes the usual paths of the user. This knowledge is used to drive automatically the wheelchair during usual paths. The second ap-plication is dedicated to the assistance of novice players in a multi-player online game. Experience of dynamic situations is learned from all the players and is used to predict the consequences of every battle
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Sainct, Rémi. "Étude des instabilités dans les modèles de trafic". Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1067/document.

Texto completo
Resumen
Lorsque la densité de véhicules devient trop élevée, le trafic autoroutier est instable, et génère naturellement des accordéons, c'est-à-dire une alternance entre des zones fluides et des zones congestionnées. Ce phénomène n'est pas reproduit par les modèles de trafic standards d'ordre 1, mais peut l'être par des modèles d'ordre supérieurs, aussi bien microscopiques (modèles de loi de poursuite) que macroscopiques (systèmes de lois de conservation).Cette thèse analyse comment différents modèles représentent des états de trafic instables, et les oscillations qui en résultent. Au niveau microscopique, à cause de la concavité du flux, le débit moyen de ces oscillations est inférieur au débit d'équilibre pour une densité équivalente. Un algorithme est proposé pour stabiliser le flux par multi-anticipation, en utilisant un véhicule autonome intelligent.Au niveau macroscopique, cette thèse introduit les modèles moyennés, en partant du principe que l'échelle spatio-temporelle des oscillations est trop petite pour être correctement prédite par une simulation. Le modèle LWR moyenné, composé de deux lois de conservations, permet de représenter au niveau macroscopique la variance de la densité d'un trafic hétérogène, et calcule correctement le débit moyen de ces états. Une comparaison avec le modèle ARZ, également d'ordre 2, montre que le modèle moyenné permet de simuler une chute de capacité de façon plus réaliste.Enfin, cette thèse présente le projet SimulaClaire, de prédiction en temps réel du trafic sur le périphérique toulousain, et en particulier l'algorithme parallélisé d'optimisation en temps réel des paramètres développé pour ce projet
Highway traffic is known to be unstable when the vehicle density becomes too high, and to create stop-and-go waves, with an alternance of free flow and congested traffic. First-order traffic models can't reproduce these oscillations, but higher-order models can, both microscopic (car-following models) and macroscopic (systems of conservation laws).This thesis analyses the representation of unstable traffic states and oscillations in various traffic models. At the microscopic level, because of the flux concavity, the average flow of these oscillations is lower than the equilibrium flow for the same density. An algorithm is given to stabilize the flow with multi-anticipation, using an intelligent autonomous vehicle.At the macroscopic level, this work introduces averaged models, using the fact that the spatio-temporal scale of the oscillations is too small to be correctly predicted by simulations. The averaged LWR model, which consists of two conservation laws, enables a macroscopic representation of the density variance in a heterogeneous traffic, and gives the correct average flow of these states. A comparison with the ARZ model, also of order 2, shows that the averaged model can reproduce a capacity drop in a more realistic way.Finally, this thesis presents the SimulaClaire project of real-time traffic prediction on the ring road of Toulouse, and its parallelized parameter optimization algorithm
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Abou, Rjeily Yves. "Management and sustainability of urban drainage systems within smart cities". Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10085/document.

Texto completo
Resumen
Ce travail présente le Contrôle en Temps Réel (CTR) des Réseaux d’Assainissement (RA) dans le cadre des villes intelligentes. Le CTR nécessite de comprendre le fonctionnement du RA et d'effectuer des simulations sur des évènements mesurés, prévus et synthétiques. Par conséquent, un système de Surveillance en Temps Réel (STR) a été installé sur le site expérimental, et combinée à un modèle de simulation. Une méthode d'auto-calage des modèles hydrauliques et un système de prévision des conditions aux limites, ont été développés. Visant à protéger les citoyens et d'atténuer les conséquences des inondations, le CTR est composé d'un système de prévision des inondations suivi d'une gestion dynamique. Le concept et les méthodes proposés ont été appliqués sur le campus de l'Université de Lille 1, au sein du projet SunRise. STR a été trouvé très utile pour comprendre le fonctionnement du RA et pour le calage du modèle de simulation. L'Algorithme Génétique suivi par Pattern Search ont formé une procédure d'auto-calage efficace. NARX Neural Network a été développé et validé pour la prévision des conditions aux limites. Une fois l’opération du RA est analysée, le CTR a été développé. NARX Neural Network a été trouvé capable de prévoir les inondations. Une gestion dynamique pour augmenter la capacité de rétention du réservoir, a été étudiée sur la base du calcul de la variation temporaire de l’ouverture d’une vanne, et les résultats ont été satisfaisants en utilisant l'Algorithme Génétique et l’Algorithme des Abeilles, comme méthodes d'optimisation. Une gestion qualitative a également été examinée et testée pour vérifier son potentiel dans la réduction des volumes d'inondation
This work presents the Real Time Control (RTC) of Urban Drainage Systems (UDS) within smart cities. RTC requires to understand the UDS operation and to perform simulations on measured, forecasted and synthetic events. Therefore, a Real Time Monitoring system (RTM) was implemented on the experimental site, and combined to a simulation model. A model auto-calibration process and hydraulic boundary conditions forecast system were developed, in order to simulate the hydrologic-hydraulic response. Aiming to protect the citizens and mitigate flooding consequences, the RTC was composed of a flooding forecast system followed by a dynamic management strategy. The proposed concept and methodologies were applied and evaluated on the Lille 1 University Campus, within the SunRise project. RTM was found very helpful in understanding the system operation and calibrating the simulation model. Genetic Algorithm followed by Pattern Search formed an effective auto-calibration procedure for the simulation model. NARX Neural Network was developed and validated for forecasting hydraulic boundary conditions. Once understanding the UDS operations, the RTC was developed. NARX Neural Network was found capable to forecast flooding events. A dynamic management for increasing a tank retention capacity, was studied based on calculating a Valve State Schedule, and results were satisfying by using Genetic Algorithm and a modified form of Artificial Bee Colony, as optimization methods. A qualitative management was also proposed and tested for verifying its potential in reducing flooding volumes
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Pagetti, Claire. "Extension temps réel d'AltaRica". Phd thesis, Ecole centrale de nantes - ECN, 2004. http://tel.archives-ouvertes.fr/tel-00006316.

Texto completo
Resumen
Ce travail s'inscrit dans la continuité de l'étude du langage de description de systèmes AltaRica. Ce langage, développé au Labri, permet de modéliser des systèmes réels de manière hiérarchique. L'objectif de la thèse est d'introduire le temps quantitatif dans le but de concevoir des systèmes temps réel, c'est à dire des systèmes assujettis à des contraintes temporelles.
Deux extensions du langage sont proposées : une version temporisée et une hybride. Ces extensions respectent les caractéristiques du langage initial et conservent les aspects de hiérarchie, de synchronisation, de partage de variables et de priorité statique. En outre, afin d'améliorer les descriptions temps réel, de nouveaux opérateurs de modélisation, comme l'urgence et les priorités temporelles, ont été ajoutés. Nous obtenons ainsi un langage hiérarchique de haut niveau de modélisation de systèmes temps réel.
Une étude formelle complète a été menée sur la sémantique du langage, le pouvoir d'expression des langages AltaRica temps réel et des moyens de traductions automatiques vers des modèles classiques existants. Ces algorithmes reposent sur la notion de mise à plat de modèle, i.e. réécrire le modèle sans sous composant.
Enfin, le langage temporisé est implanté dans un prototype qui étant donné un modèle le met à plat puis le traduit en automate temporisé. Ainsi, certains systèmes réels ont pu être modélisés puis des propriétés ont été vérifiées à l'aide du model checker UPPAAL.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Holländer, Matthias. "Synthèse géométrique temps réel". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0009/document.

Texto completo
Resumen
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Holländer, Matthias. "Synthèse géométrique temps réel". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0009.

Texto completo
Resumen
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Ivol, Alexandre. "Le roman du temps réel". Paris 3, 2004. http://www.theses.fr/2004PA030011.

Texto completo
Resumen
Notre travail se fonde sur un questionnement autour de la représentation de l'expérience temporelle dans l'œuvre de William Faulkner et de James Joyce. Pour cela, nous nous sommes concentrés exclusivement sur la technique du monologue intérieur qui permet à l'intériorité du personnage principal de s'approprier les enjeux et le déroulement du processus diégétique. Notre démonstration consiste à justifier l'idée selon laquelle l'utilisation du monologue intérieur change les données initiales du récit en imposant une temporalité qui n'est plus celle de la fiction, mais qui relève avant tout du temps réel, c'est-à-dire un temps sans ellipse, qui intègre tous les élements du réel objectif ( l'environnement du " héros " ) et subjectif ( ses pensées et ses sensations ). Cette révolution temporelle au sein du récit ( ébranlant la forme conventionnelle du roman naturaliste ) correspond selon nous à la définition la plus juste de ce que représente la modernité littéraire
Our work is based on the questionning about the way the experience of Time is represented in William Faulkner's and James Joyce's works. For this, we exclusively focused our attention on the stream of consciousness technique which allows the main character's inward thoughts to take over the narrative process as well as the issue at stake. Our demonstration consists in justifying the idea according to which the use of stream of consciousness changes the initial data of the narrative by imposing a time scale which has no longer anything to do with that of fiction, but which emanates from real Time, that is to say time without ellipsis, taking into account both elements of objective reality ( the hero's environment ) and of subjectivity ( his thoughts ans perceptions ). In our opinion, this temporal revolution in the heart of narrative ( which shakes the conventionnal form of the naturalist novel to its foundations ) corresponds to the true definition of what modernity represents in literary terms
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Cabral, Giordano. "Harmonisation automatique en temps réel". Paris 6, 2008. http://www.theses.fr/2008PA066236.

Texto completo
Resumen
Le terme « système d’harmonisation automatique en temps réel » (HATR) désigne une application qui accompagne une mélodie possiblement improvisée, en trouvant une harmonie appropriée et en utilisant une rythmique fixe. Outre les contraintes de performance et de portée, le système et l’utilisateur peuvent s’influencer mutuellement. Ce type de système prend des éléments de l’accompagnement, la composition, et l’improvisation automatiques, et demeure un projet à défis par la complexité technique impliquée et par le manque de références solides dans la littérature scientifique. Dans cette thèse, nous proposons des extensions de techniques développées dans les dernières années dans le domaine de la récupération d’information musicale pour arriver à des solutions capables de travailler directement sur le signal acoustique. Une série d’expérimentations ont été réalisées et regroupées par cycle de développement afin d’identifier les principaux paramètres impliqués dans le développement d’un système de ce type. Cela nous a permis de construire plus que des applications isolées, mais un véritable framework de création de solutions pour l’HATR.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Benmounah, Nadir. "Rendu temps-réel d'objets translucides". Limoges, 2009. https://aurore.unilim.fr/theses/nxfile/default/e76da47c-c965-4fbf-bdb6-7a2831e78925/blobholder:0/2009LIMO4031.pdf.

Texto completo
Resumen
La reproduction du réel dispose d'un intérêt croissant en synthèse d'images. La translucidité est un phénomène qui ajoute aux images reproduites, un réalisme certain. La simulation de l'absorption de la lumière par la matière a su profiter de l'abondance de la littérature scientifique, ainsi que des performances actuelles des cartes graphiques, afin de s'imposer comme une nouvelle branche de recherche en synthèse d'images. Dans cette thèse, nous décrivons deux méthodes de rendu temps-réel d'objets translucides. La première méthode autorise la déformation en temps-réel de ces objets, à l'aide d'atlas de textures flexibles. Dans la seconde, nous nous sommes intéressés à la porcelaine. Ce matériau doit sa notoriété à sa translucidité, et à sa blancheur. Le rendu de la porcelaine est effectué après une phase d'acquisition de ses propriétés optiques et l'introduction du modèle de Kubleka-Munk
The reproduction of nature in computer-added applications knows a significant revolution. Translucidity enhances the realism virtual images. Light absorption simulation has taken profits of the abundant scientific literature in physics and optics, and of the last advancements in graphics cards technologies, to establish itself as a new branch in image synthesis research. In the scope of this thesis, we describe two different methods in real-time rendering of translucent objects. The first method allows real-time deformation of these objects, by means of flexible texture atlases. In the second, we focused on porcelain. This material is famous for its translucidity and its whiteness. Porcelain rendering is achieved after the acquisition of its optical properties and the use of Kubelka-Munk model
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Sarni, Toufik. "Vers une mémoire transactionnelle temps réel". Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00750637.

Texto completo
Resumen
Avec l'émergence des systèmes multicœurs, le concept de mémoire transactionnelle (TM) a été renouvelé à la fois dans le domaine de la recherche et dans le monde industriel. En effet, en supportant les propriétés ACI (Atomicité, Consistance et Isolation) des transactions, le concept de TM facilite la programmation parallèle et évite les problèmes liés aux verrous tels que les interblocages et l'inversion de priorité. De plus, contrairement aux méthodes basées sur les verrous, une TM permet à plusieurs transactions d'accéder en parallèle aux ressources, et augmente ainsi la bande passante du système. Enfin, une TM intègre un ordonnanceur de transactions qui, soit ré-exécute (retry) la transaction en cas de détection de conflits, soit valide (commit) la transaction en cas de succès. L'objectif de cette thèse est d'étudier l'adaptation des TMs à des systèmes temps réel soft au sein desquels les processus doivent s'exécuter le plus souvent possible dans le respect de contraintes temporelles. Jusqu'à maintenant, l'ordonnancement de transactions temps réel au sein d'une TM n'a pas été étudié. Dans un premier temps, nous proposons une étude expérimentale comparative nous permettant de statuer sur l'adéquation des TMs aux systèmes temps réel multicœurs. Il s'agit en particulier d'évaluer si la variabilité du temps d'exécution des transactions est prohibitif à une utilisation dans un contexte temps réel lors de l'accès aux ressources partagées. Dans un second temps, nous introduisons un modèle transactionnel temps réel pour les TMs et nous décrivons la conception et l'implémentation d'une mémoire transactionnelle logicielle temps réel nommée RT-STM. Celle-ci intègre de nouveaux protocoles de synchronisation qui permettent de prioriser les accès aux ressources partagées en fonction de l'urgence des processus. Enfin, nous montrons comment adapter notre RT-STM à un environnement temps réel firm en proposant quelques pistes d'adaptation permettant de garantir aux processus un certain niveau de qualité de service (QoS) vis-à-vis des accès aux ressources partagées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Salem, Habermehl Rym. "Répartition de programmes synchrones temps réel". Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004703.

Texto completo
Resumen
La programmation synchrone est utilisée pour faciliter la description des systèmes réactifs, devant réagir de façon continue avec leur environnement physique. Ces systèmes sont souvent répartis, pour des raisons d'implantation physique ou de tolérance aux fautes. D'autre part, de tels systèmes sont aussi critiques et temps-réel. Le but de ce travail est d'étudier des méthodologies d'implantation de tels systèmes sur des réseaux de calculateurs. Nous montrons comment l'application de la programmation synchrone pose des problèmes de robustesse pour la programmation de tels systèmes en raison de la non correspondance du temps logique au temps réel. Nous étudions la robustesse dans divers cas: systèmes continus et systèmes discrets. En particulier nous fournissons des outils de simulation pour des architectures réparties quasi-synchrones et des outils de vérification de la robustesse. Nous proposons aussi un protocole de synchronisation dans les cas de systèmes non robustes. Nous proposons enfin une approche de tolérance aux fautes pour les systèmes répartis quasi-synchrones.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Gauthier, Martin. "Surveillance des réseaux en temps réel". Mémoire, École de technologie supérieure, 2009. http://espace.etsmtl.ca/49/1/GAUTHIER_Martin.pdf.

Texto completo
Resumen
La nouvelle génération d’outils de communication destinés au travail collaboratif amène une dépendance à des caractéristiques précises des réseaux de télécommunication Internet. Synchromédia est un tel système conçu et développé pour le travail collaboratif. Les caractéristiques exigées par la plateforme Synchromédia sont (1) un débit de trafic égal ou supérieur à la vidéoconférence en haut résolution (2) une latence inférieure à celle qu’exige la voix sur IP et (3) le partage d’énorme quantité de données propres aux applications parmi plusieurs correspondants ou usagers répartis sur un vaste territoire géographique. Le développement de Synchromédia nécessite une adaptation aux caractéristiques du réseau. Afin d’adapter ces propriétés de fonctionnent, un banc d’essai a été conçu, développé et construit dans le Laboratoire de gestion des réseaux informatiques et de télécommunications (LAGRIT). Ce banc d’essai est constitué de plusieurs équipements réseautiques et équipements de perturbation ainsi qu’un générateur de trafic, mais aucun outil de mesure adéquat. Ce mémoire explore la problématique de la mesure des réseaux de télécommunication afin d’identifier les caractéristiques recherchées pour l’évaluation et la mise en place de différents logiciels de surveillance des réseaux de télécommunication pouvant effectuer la collecte d’information en temps réel de façon intègre sur plusieurs sources simultanément. Trois systèmes sont testés en exécutant sur le banc d’essai une batterie de scénarios caractéristiques des échanges de Synchromédia. Les résultats sont présentés sous forme de graphiques qui permettent d’analyser rapidement les caractéristiques résultantes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Bernaille, Laurent. "Classification temps réel d'applications sur l'internet". Paris 6, 2007. http://www.theses.fr/2007PA066566.

Texto completo
Resumen
L'identification des applications utilisées sur un réseau est essentielle pour comprendre les évolutions du trafic et appliquer des politiques de qualité de service. Dans cette thèse, nous proposons une méthode identifiant l'application associée à une connexion TCP à partir de ses premiers paquets uniquement. Nous utilisons plusieurs techniques de clustering afin d'identifier les comportements de connexions les plus répandus. Puis, nous présentons des méthodes de classification qui associent les connexions à identifier aux clusters que nous avons trouvés et déterminent leur application. Nous évaluons ces méthodes sur des traces de trafic et montrons que la taille des quatre premiers paquets suffit pour identifier 90% des connexions. Nous décrivons ensuite une implémentation de notre méthode capable de supporter un débit de 6Gbit/s. Enfin, nous montrons que ces résultats peuvent être étendus aux connexions chiffrées avec SSL.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Delalandre, Cyril. "Rendu temps réel de milieux participants". Rennes 1, 2012. http://www.theses.fr/2012REN1S168.

Texto completo
Resumen
Imaginez un film avec un ciel sans nuages, un jeu vidéo avec une explosion sans fumée. Les milieux participants sont nécessaires au réalisme des images de synthèse. Le rendu de milieux participants est un vaste sujet de recherche dont le principal but est de simuler les interactions de la lumière avec les objets semi-transparents. Contrairement aux objets solides sur lesquels la lumière es t simplement réfléchie à la surface, les milieux participants absorbent et diffusent aussi la lumière. Ces interactions créent des effets visuels complexes tels que le sombres volumétriques et des ombres douces. Nous étudions le domaine du rendu temps réel de milieux participants. Nous proposons des algorithmes permettant à la fois des rendus temps réel et des rendus de qualité de production tout en gérant efficacement la mémoire graphique. Tout d'abord, nous introduisons le concept de carte de fonctions de transmittance utilisé pour calculer la diffusion simple dans les milieux participants. Nous étendons ensuite ce concept au rendu basé image en utilisant les transmittances sphériques. Nous proposons finalement les cartes d'extinctions guidées par les volumes pour prendre en compte les scènes contenant les nombreux milieux détaillés utilisés en post-production cinéma
Imagine a movie with skies without clouds, a video game with explosions without smoke or fire. Participating media are mandatory for realistic-looking CG scenes. Rendering participating media is therefore a widely studied research topic focusing on the simulation of light interactions within translucent objects. Unlike solid objects where the light is simply reflected over the surface, participating media also absorb and scatter light. All of these interactions create complex effects such as volumetric shadows and soft shadows. We investigate the field of real-time rendering of participating media. We propose scalable algorithms ranging from real-time performance to production quality along with efficient graphics memory management. We first introduce the concept of transmittance function maps for fast estimation of single scattering in participating media. We then extend this concept to image-based lighting using spherical transmittance. We finally introduce the volume-aware extinction map to handle the massive scenes containing numerous and highly detailed media used in movie post-production
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Tigori, Kabland Toussaint Gautier. "Méthode de génération d’exécutif temps-réel". Thesis, Ecole centrale de Nantes, 2016. http://www.theses.fr/2016ECDN0019.

Texto completo
Resumen
Dans les systèmes embarqués, la spécialisation ou la configuration des systèmes d’exploitation temps réel en fonction des besoins de l’application consiste en la suppression des services inutiles du système d’exploitation. Cela a non seulement pour but d’optimiser l’empreinte mémoire occupée par le système d’exploitation temps réel, afin de satisfaire les contraintes de mémoire auxquelles les systèmes embarqués font face, mais aussi de réduire la quantité de code mort au sein du système d’exploitation temps réel afin d’améliorer la sureté de fonctionnement. Dans nos travaux de thèse, nous nous intéressons à l’utilisation des méthodes formelles dans le processus de spécialisation des systèmes d’exploitation temps réel. Une difficulté majeure dans l’utilisation de modèles formels est la distance entre le modèle et le système modélisé. Nous proposons donc de modéliser le système d’exploitation de telle sorte que le modèle embarque son code source et les structures de données manipulées. Nous utilisons à cet effet un modèle à états finis (éventuellement temporisé) augmenté par des variables discrètes et des séquences d’instructions, considérées comme atomiques, manipulant ces variables. À partir du modèle du système d’exploitation et d’un modèle de l’application visée, l’ensemble des états accessibles du modèle du système d’exploitation traduisant le code effectivement utilisé lors de l’exécution de l’application est calculé. Le code source du système d’exploitation spécialisé est extrait de ce modèle élagué. L’ensemble de la démarche exposée est mise en oeuvre avec Trampoline, un système d’exploitation temps réel basée sur les standards OSEK/VDX et AUTOSAR. Cette technique de spécialisation garantit l’absence de code mort, minimise l’empreinte mémoire et fournit un modèle formel du système d’exploitation utilisable dans une étape ultérieure de modelchecking. Dans ce cadre, nous proposons une technique automatique de vérification formelle de la conformité aux standards OSEK/VDX et AUTOSAR à l’aide d’observateurs génériques
In embedded systems, specialization or configuration of real-time operating systems according to the application requirements consists to remove the operating system services that are not needed by the application. This operation allows both to optimize the memory footprint occupied by the real-time operating system in order to meet the memory constraints in embedded systems and to reduce the amount of dead code inside the real-time operating system in order to improve its reliability. In this thesis, we focus on the use of formal methods to specialize real-time operating systems according applications. One major difficulty using formal models is the gap between the system model and its implementation. Thus, we propose to model the operating system so that the model embeds its source code and manipulated data structures. For this purpose, we use finite state model (possibly timed model) with discrete variables and sequences of instructions which are considered as atomic manipulating these variables. From the operating system model and an application model, the set of reachable states of the operating system model describing the code needed during application execution is computed. Thus, the source code of the specialized operating system is extracted from the pruned model. The overall approach is implemented with Trampoline, a real-time operating system based on OSEK/VDX and AUTOSAR standards. This specialization technique ensures the absence of dead code, minimizes the memory footprint and provides a formal model of the operating system used in a last step to check its behavior by using model checking. In this context, we propose an automatic formal verification technique that allows to check the operating systems according OSEK/VDX and AUTOSAR standards using generic observers
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Semghouni, Samy Rostom. "Modélisation stochastique des transactions temps réel". Le Havre, 2007. http://www.theses.fr/2007LEHA0012.

Texto completo
Resumen
Les SGBD temps réel (SGBDTR) sont conçus pour répondre aux besoins des applications qui nécessitent le traitement de grandes quantités de données en temps réel. Un SGBDTR doit donc traiter les transactions en garantissant leurs propriétés ACID (Atomicité, Cohérence, Isolation, Durabilité) d'une part, et doit satisfaire les contraintes de temps imposées aux transactions et aux données, d'autre part. Les travaux de cette thèse consistent à réaliser une étude stochastique et probabiliste du comportement des transactions temps réel. L'étude est réalisée en faisant varier certaines hypothèses telles que la moyenne d'arrivée des transactions, le type de transactions, le protocole de résolution de conflits (un optimiste et un pessimiste), et la politique d'ordonnancement. Nous avons alors conçu et développé un simulateur de SGBDTR flexible et extensible, sur lequel l'étude à été effectuée. Les résultats obtenus ont montré que le comportement des transactions pouvait être approximé par un modèle probabiliste. Le modèle est utilisé par la suite pour la prédiction du taux de succès des transactions en fonction de la charge du système. Nous avons également proposé une nouvelle politique d'ordonnancement des transactions temps réel qui s'appuie sur les critères d'échéance et d'importance des transactions. Cette politique apporte une contribution dans l'augmentation des performances du système (maximisation du nombre de transactions validées), améliorant ainsi la qualité de service des SGBDTR
Real-time database systems (RTDBSs) are systems designed to address the applications which need real-time processing of large quantities of data. An RTDBS must guarantee the transactions ACID (Atomicity, Consistency, Isolation, Durability) properties on one hand, and must schedule the transactions in order to meet their individual deadlines, on the other hand. In this thesis, we focus on stochastic and probabilistic study of the behavior of real-time transactions. The study is conducted under some assumptions such as the arrival mean of transactions, transactions type, concurrency control protocol (an optimistic and a pessimistic), and scheduling policy. We have then designed and developed a flexible and extensible RTDBS simulator, on which the study is done. The obtained results have shown that the transactions behavior can be approximated by a probabilistic model. The model is used to predict the transactions success ratio according to the system workload. We also propose a new scheduling policy for real-time transactions which uses criteria based on both transaction deadlines and transaction importance. This policy contributes to enhance the system performances (maximization of committing transactions), improving then the RTDBSs quality of service
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Halaq, Hanan. "Interférométrie holographique numérique en temps réel". Strasbourg, 2010. http://www.theses.fr/2010STRA6008.

Texto completo
Resumen
La question du repliement des ordres trouve son origine dans la faible résolution des capteurs CCD : l'angle entre le faisceau objet et le faisceau référence doit être réduit à seulement quelques degrés afin de satisfaire aux conditions d'échantillonnage. Si cet angle d'enregistrement est plus grand que l’angle maximum acceptable, ce qui arrive lorsque les objets observés sont de grandes dimensions, l'hologramme sera sous-échantillonné. En conséquence, seuls de petits objets peuvent être enregistrés et ils doivent être placés loin de la caméra CCD ; les objets de grande taille devront être « réduits » via un système de lentilles. Nous avons réalisé un montage expérimental pour étudier de façon détaillée le phénomène de repliement spectral (aliasing) : ce montage permet d’analyser la reconstruction de l'hologramme lorsque le théorème d'échantillonnage n'est pas satisfait grâce à un objet qui, mobile transversalement, permet de faire varier l’ouverture angulaire de la prise de vue et donc l’interfrange de l’hologramme. Grâce à ce dispositif, nous avons observé expérimentalement que le fait d’augmenter l'angle au-delà de la limite de Nyquist conduit en effet à des repliements successifs de l'image de l'objet mais sans aucunement empêcher sa reconstruction. Nous avons alors procédé à une série d'enregistrements holographiques de la membrane vibrante et étudier si la récupération des reconstructions des hologrammes présentait des repliements et si des perturbations apparaissaient.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Poupet, Victor. "Automates cellulaires : temps réel et voisinages". Lyon, École normale supérieure (sciences), 2006. http://www.theses.fr/2006ENSL0390.

Texto completo
Resumen
Dans cette thèse nous nous sommes intéressés à l'importance du choix du voisinage sur les capacités algorithmiques des automates cellulaires. Nous avons travaillé en dimension quelconque en nous concentrant sur les classes de complexité correspondant au temps réel (plus petit temps nécessaire pour que l'automate ait lu le mot en entrée) et temps réel plus une constante. En effet il est connu que les voisinages sont équivalents en temps linéaire et il est donc nécessaire de considérer des temps inférieurs. Nous avons obtenu plusieurs résultats d'équivalences de voisinages au sens du temps réel (des classes de voisinages tels que les automates fonctionnant sur ces voisinages reconnaissent les mêmes langages) et des résultats d'accélérations linéaires ou constantes selon les voisinages
In this thesis we have worked on the impact of the choice of a neighborhood on the algorithmic abilities of cellular automata. We have specifically studied the lower complexity classes such as the real time (that corresponds to the shortest time necessary for a cellular automaton to read all the letters of the input word) and the real time plus a constant. It is indeed known that neighborhoods are equivalent in linear time and it is therefore necessary to consider shorter times. We have obtained neighborhood equivalence results with respect to the real time (neighborhood classes such that cellular automata working on any of those neighborhoods can recognize the same languages in real time) and linear or constant speed-up theorems for many classes of neighborhoods
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Chaudron, Jean-Baptiste. "Architecture de simulation distribuée temps-réel". Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0002/document.

Texto completo
Resumen
Ce travail de thèse s'inscrit dans le projet plus global PRISE (Plate-forme de Recherche pour l'Ingénierie des Systèmes Embarqués) dont l'objectif principal est le développement d'une plateforme d'exécution pour les logiciels embarqués. De tels logiciels sont dits critiques et ils sont, par conséquent, soumis à des règles de conception spécifiques. Notamment, ces logiciels doivent répondre à des contraintes de temps réel et ainsi garantir des comportements temporels prédictifs afin de toujours donner des résultats justes avec le respect d'échéances temporelles.L'objectif de cette thèse est d'évaluer l'utilisation des techniques de la simulation distribuée (et particulièrement de la norme HLA) pour répondre aux besoins de simulation hybride et temps réel de la plate-forme. Afin de respecter ces contraintes et garantir la prédictibilité temporelle d'une simulation distribuée, il faut avoir une vision complète de l'ensemble du problème et notamment des différents niveaux d'actions : applicatif, intergiciel, logiciel, matériel et aussi formel pour la validation du comportement temporel.Cette thèse se base sur la RTI (Run Time Infrastructure, intergiciel HLA) de l'ONERA : le CERTI et propose une démarche méthodologique adaptée à ces différents niveaux d'actions. Des cas d'étude, notamment un simulateur du vol d'un avion, ont été spécifiés, implémentés et expérimentés sur la plate-forme PRISE
This work takes place in the global project PRISE (Plate-forme de Recherche pour l'Ingénierie des Systèmes Embarqués) in which the focus is to develop an execution platform for embedded software. Embedded software are said criticals and, therefore, are subject to specific design rules.Particularly, these software must meet real time constraints and thus ensure a temporal predictive behaviour in order to always give accurate results with respect to corresponding timing deadlines.The main objective of this thesis is to study the use of distributed simulation techniques (and specifically the HLA standard) to meet the real-time and hybrid simulation needs of the PRISE platform. To comply with these real-time constraints and ensure the predictability of a distributed simulation, we must have a complete view of the whole problem and in particular the different levels of action: application, middleware, software, hardware and also a formal level for validation of the timing behaviour.This work is based on the RTI (Run Time Infrastructure, HLA middleware) from ONERA laboratory called : the CERTI and proposes a methodological approach adapted to take into account these different levels of action. Some case studies, including a flight simulator of an aircraft, have been specified, implemented and tested on the PRISE platform
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Rakotozafy, Andriamaharavo. "Simulation temps réel de dispositifs électrotechniques". Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0385/document.

Texto completo
Resumen
Les contrôleurs industriels font l’objet de changements de paramètres, de modifications, d’améliorations en permanence. Ils subissent les évolutions technologiques aussi bien matérielles que logicielles (librairies, système d’exploitation, loi de commande...). Malgré ces contraintes, ces contrôleurs doivent obligatoirement assurer toutes les fonctionnalités recouvrant le séquentiel, les protections, l’interface homme machine et la stabilité du système à contrôler. Ces fonctionnalités doivent être couvertes pour une large gamme d’applications. Chaque modification (matérielle ou logicielle) quoique mineure est risquée. Le debogage, l’analyse et la programmation sur site sont énormément coûteux surtout pour des sites de type offshore ou marine. Les conditions de travail sont difficiles et les tests sont réduits au strict minimum. Cette thèse propose deux niveaux de validation en plateforme d’expérimentation : un niveau de validation algorithmique que l’on appelle Validation par Interface Logicielle (VIL) traitée au chapitre 2 ; un niveau de validation physique que l’on appelle Validation par Interface Matérielle (VIM) traitée au chapitre 3. La VIL valide uniquement l’aspect algorithme, la loi de commande et la conformité des références au niveau calcul sans prendre en compte les signaux de commande physiques et les signaux de retour gérés par l’Unité de Gestion des Entrées/Sorties (UGES). Un exemple de validation d’un contrôleur industriel d’un ensemble convertisseur trois niveaux et machine asynchrone est traité dans le deuxième chapitre avec une modélisation particulièrement adaptée à la VIL. Le dernier chapitre traite la VIM sur différentes bases matérielles (Field Programmable Gate Array (FPGA), processeurs). Cette validation prend en compte l’aspect algorithme et les signaux de commande physique ainsi que les signaux de retour. On y présente plusieurs approches de modélisation, choisies selon la base matérielle d’implémentation du simulateur temps réel. Ces travaux ont contribué aujourd’hui à au processus de validation des contrôleurs dédiés aux applications Oil and Gaz et Marine de General Electric - Power Conversion © (GE-PC)
Industrial controllers are always subjected to parameters change, modifications and permanent improvements. They have to follow off-the-shelf technologies as well as hardware than software (libraries, operating system, control regulations ...). Apart from these primary necessities, additional aspects concerning the system operation that includes sequential, protections, human machine interface and system stability have to be implemented and interfaced correctly. In addition, these functions should be generically structured to be used in common for wide range of applications. All modifications (hardware or software) even slight ones are risky. In the absence of a prior validation system, these modifications are potentially a source of system instability or damage. On-site debugging and modification are not only extremely expensive but can be highly risky, cumulate expenditure and reduce productivity. This concerns all major industrial applications, Oil & Gas installations and Marine applications. Working conditions are difficult and the amount of tests that can be done is strictly limited to the mandatory ones. This thesis proposes two levels of industrial controller validation which can be done in experimental test platform : an algorithm validation level called Software In the Loop (SIL) treated in the second chapter ; a physical hardware validation called Hardware In the Loop (HIL) treated in the third chapter. The SIL validates only the control algorithm, the control law and the computed references without taking into account neither the actual physical commands nor the physical input feedbacks managed by the Input/Output boards. SIL validation of the system where industrial asynchronous motor is fed and regulated by a three level Variable Speed Drive with a three level voltage source converter is treated in the second chapter with a particular modeling approach adapted to such validation. The last chapter presents the HIL validation with various hardware implementations (Field Programmable Gate Array (FPGA), processors). Such validation checks both the control algorithm and the actual physical Input/Output signals generated by the dedicated boards. Each time, the modeling approach is chosen according to the hardware implementation. Currently this work has contributed to the system validation used by General Electric - Power Conversion © (GE-PC) as part of their validation phase that is mandatory for Oil & Gas projects and Marine applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Maxim, Dorin. "Analyse probabiliste des systèmes temps réel". Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00923006.

Texto completo
Resumen
Les systèmes embarqués temps réel critiques intègrent des architectures complexes qui évoluent constamment a n d'intégrer des nouvelles fonctionnalités requises par les utilisateurs naux des systèmes (automobile, avionique, ferroviaire, etc.). Ces nouvelles architectures ont un impact direct sur la variabilité du comportement temporel des systèmes temps réel. Cette variabilité entraîne un sur-approvisionnement important si la conception du système est uniquement basée sur le raisonnement pire cas. Approches probabilistes proposent des solutions basées sur la probabilité d'occurrence des valeurs les plus défavorables a n d'éviter le sur-approvisionnement, tout en satisfaisant les contraintes temps réel. Les principaux objectifs de ce travail sont de proposer des nouvelles techniques d'analyse des systèmes temps réel probabilistes et des moyens de diminuer la complexité de ces analyses, ainsi que de proposer des algorithmes optimaux d'ordonnancement á priorité xe pour les systèmes avec des temps d'exécution décrits par des variables aléatoires. Les résultats que nous présentons dans ce travail ont été prouvés surs et á utiliser pour les systèmes temps réel durs, qui sont l'objet principal de notre travail. Notre analyse des systèmes avec plusieurs paramètres probabilistes a été démontrée considérablement moins pessimiste que d'autres types d'analyses. Cette analyse combinée avec des algorithmes d'ordonnancement optimaux appropriées pour les systèmes temps réel probabilistes peut aider les concepteurs de systèmes á mieux apprécier la faisabilité d'un systéme, en particulier de ceux qui sont jugé irréalisable par des analyses/algorithmes d'ordonnancement déterministes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Rakotozafy, Andriamaharavo. "Simulation temps réel de dispositifs électrotechniques". Electronic Thesis or Diss., Université de Lorraine, 2014. http://www.theses.fr/2014LORR0385.

Texto completo
Resumen
Les contrôleurs industriels font l’objet de changements de paramètres, de modifications, d’améliorations en permanence. Ils subissent les évolutions technologiques aussi bien matérielles que logicielles (librairies, système d’exploitation, loi de commande...). Malgré ces contraintes, ces contrôleurs doivent obligatoirement assurer toutes les fonctionnalités recouvrant le séquentiel, les protections, l’interface homme machine et la stabilité du système à contrôler. Ces fonctionnalités doivent être couvertes pour une large gamme d’applications. Chaque modification (matérielle ou logicielle) quoique mineure est risquée. Le debogage, l’analyse et la programmation sur site sont énormément coûteux surtout pour des sites de type offshore ou marine. Les conditions de travail sont difficiles et les tests sont réduits au strict minimum. Cette thèse propose deux niveaux de validation en plateforme d’expérimentation : un niveau de validation algorithmique que l’on appelle Validation par Interface Logicielle (VIL) traitée au chapitre 2 ; un niveau de validation physique que l’on appelle Validation par Interface Matérielle (VIM) traitée au chapitre 3. La VIL valide uniquement l’aspect algorithme, la loi de commande et la conformité des références au niveau calcul sans prendre en compte les signaux de commande physiques et les signaux de retour gérés par l’Unité de Gestion des Entrées/Sorties (UGES). Un exemple de validation d’un contrôleur industriel d’un ensemble convertisseur trois niveaux et machine asynchrone est traité dans le deuxième chapitre avec une modélisation particulièrement adaptée à la VIL. Le dernier chapitre traite la VIM sur différentes bases matérielles (Field Programmable Gate Array (FPGA), processeurs). Cette validation prend en compte l’aspect algorithme et les signaux de commande physique ainsi que les signaux de retour. On y présente plusieurs approches de modélisation, choisies selon la base matérielle d’implémentation du simulateur temps réel. Ces travaux ont contribué aujourd’hui à au processus de validation des contrôleurs dédiés aux applications Oil and Gaz et Marine de General Electric - Power Conversion © (GE-PC)
Industrial controllers are always subjected to parameters change, modifications and permanent improvements. They have to follow off-the-shelf technologies as well as hardware than software (libraries, operating system, control regulations ...). Apart from these primary necessities, additional aspects concerning the system operation that includes sequential, protections, human machine interface and system stability have to be implemented and interfaced correctly. In addition, these functions should be generically structured to be used in common for wide range of applications. All modifications (hardware or software) even slight ones are risky. In the absence of a prior validation system, these modifications are potentially a source of system instability or damage. On-site debugging and modification are not only extremely expensive but can be highly risky, cumulate expenditure and reduce productivity. This concerns all major industrial applications, Oil & Gas installations and Marine applications. Working conditions are difficult and the amount of tests that can be done is strictly limited to the mandatory ones. This thesis proposes two levels of industrial controller validation which can be done in experimental test platform : an algorithm validation level called Software In the Loop (SIL) treated in the second chapter ; a physical hardware validation called Hardware In the Loop (HIL) treated in the third chapter. The SIL validates only the control algorithm, the control law and the computed references without taking into account neither the actual physical commands nor the physical input feedbacks managed by the Input/Output boards. SIL validation of the system where industrial asynchronous motor is fed and regulated by a three level Variable Speed Drive with a three level voltage source converter is treated in the second chapter with a particular modeling approach adapted to such validation. The last chapter presents the HIL validation with various hardware implementations (Field Programmable Gate Array (FPGA), processors). Such validation checks both the control algorithm and the actual physical Input/Output signals generated by the dedicated boards. Each time, the modeling approach is chosen according to the hardware implementation. Currently this work has contributed to the system validation used by General Electric - Power Conversion © (GE-PC) as part of their validation phase that is mandatory for Oil & Gas projects and Marine applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Maxim, Dorin. "Analyse probabiliste des systèmes temps réel". Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0267.

Texto completo
Resumen
Les systèmes embarqués temps réel critiques intègrent des architectures complexes qui évoluent constamment afin d'intégrer des nouvelles fonctionnalités requises par les utilisateurs finaux des systèmes (automobile, avionique, ferroviaire, etc.). Ces nouvelles architectures ont un impact direct sur la variabilité du comportement temporel des systèmes temps réel. Cette variabilité entraîne un sur-approvisionnement important si la conception du système est uniquement basée sur le raisonnement pire cas. Approches probabilistes proposent des solutions basées sur la probabilité d'occurrence des valeurs les plus défavorables afin d'éviter le sur-approvisionnement, tout en satisfaisant les contraintes temps réel. Les principaux objectifs de ce travail sont de proposer des nouvelles techniques d'analyse des systèmes temps réel probabilistes et des moyens de diminuer la complexité de ces analyses, ainsi que de proposer des algorithmes optimaux d'ordonnancement à priorité fixe pour les systèmes avec des temps d'exécution décrits par des variables aléatoires. Les résultats que nous présentons dans ce travail ont été prouvés surs et à utiliser pour les systèmes temps réel durs, qui sont l'objet principal de notre travail. Notre analyse des systèmes avec plusieurs paramètres probabilistes a été démontrée considérablement moins pessimiste que d'autres types d'analyses. Cet analyse combinée avec des algorithmes d'ordonnancement optimaux appropriées pour les systèmes temps réel probabilistes peut aider les concepteurs de systèmes à mieux apprécier la faisabilité d'un système, en particulier de ceux qui sont jugé irréalisable par des analyses/algorithmes d'ordonnancement déterministes
Critical real-time embedded systems integrate complex architectures that evolve constantly in order to provide new functionality required by the end users of the systems (automotive, avionics, railway, etc). These new architectures have a direct impact on the variability of the timing behavior of the real-time system. This variability leads to important over-provisioning if the design of the system is based only on worst case reasoning. Probabilistic approaches propose solutions are based on the probability of occurrence of the worst case values in order to avoid over provisioning while satisfying real-time constraints. The main objectives of this work are new analysis techniques for probabilistic real-time systems and ways of decreasing the complexity of these analyses, as well as to propose optimal fixed priority scheduling algorithms for systems that have variability at the level of execution times. The results that we provide in this work have been proved applicable to hard real-time systems, which are the main focus of our work. Our proposed analysis for systems with multiple probabilistic parameters has been shown to greatly decrease the pessimism introduced by other types of analyses. This type of analysis combined with the proper optimal scheduling algorithms for probabilistic real-time system help the system designers to better appreciate the feasibility of a system, especially of those that are deemed unfeasible by deterministic analyses/scheduling algorithms
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Hakem, Mourad. "Ordonnancement multiprocessurs et distribué temps réel". Paris 13, 2006. http://www.theses.fr/2006PA132033.

Texto completo
Resumen
Dans cette thèse, nous considérons plusieurs problèmes d'ordonnancement par les calculs parallèles. Une application parallèle est représentée par un graphe de tâches acyclique (DAG). Les sommets représentent les tâches et les arcs les contraintes de précédance entre elles. Nos contributions s'inscrivent dans les trois volets suivants. Le premier problème étudié est l'ordonnancement des graphes de tâches dans les systèmes multiprocesseurs. Les graphes de tâches considérées sont quelconques, de graphes de grande taille et la durée des tâches/communications est arbitraire. Dans ce cadre, nous proposons deux algorithmes : 1-Un algorithme de regroupement(ordonnancement sur un nombre non borné de processeurs) efficace, basé sur la technique du chemin critique. Il est guidé par des règles d'ordonnancement qui permettent de réduire considérablement la consommation en processeurs. Dans le but de réduire la complexité temporelle de l'algorithme, la longueur du chemin critique est calculée d'une étape à une autre de façon incrémentale. 2-Un algorithme d'ordonnancement sur un nombre borné de processeurs. Cet algorithme a l'avantage, par rapport à ses compétiteurs, de réduire le choix, parmi les tâches candidates à l'ordonnancement de toutes à une seule et, sur l'ensemble des processeurs disponibles, de tous à deux. Cela nous permet d'avoir un algorithme à la fois rapide et performant comparé aux autres algorithmes connus dans ce domaine. Le deuxième problème traîté est l'ordonnancement dans les systèmes hétérogènes avec prise en compte de la fiabilité du système. Nous proposons une solution qui satisfait deux objectifs silmutanément. Le premier objectif consiste en la minimisation du makespan et le deuxième objectif consiste en la maximisation de la fiabilité du système. L'heuristique est validée par une série d'expérimentation et les résultats obtenus sont prometteurs. Enfin, nous nous sommes intéressés au problème d'ordonnancement en ligne des graphes de tâches dans les systèmes distribués temps-réel. Nous présentons un algorithme original sous des hypothèses réalistes (un réseau quelconque de taille arbitraire et des contraintes de dépendance entre tâches) où des graphes de tâches peuvent arriver concurrement et sporadiquement sur n'importe quel site et à n'importe quel moment. Cet algorithme est basé sur un nouveau concept : les sphères de calcul. Elles permettent de déterminer les voisins potentiels qui peuvent coopérer à l'exécution distribuée des graphes de tâches s'ils ne peuvent être garantis sur leurs sites d'origine. Cela permet une augmentation sensible du nombre de graphes garantis dans le système. Mots-clés : fiabilité, ordonnancement, regroupements, systèmes temps-réel, systèmes parallèles, systèmes distribués, graphes acycliques DAGs, ordonnancement bi-critères, systèmes hétérogènes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Alkhodre, Ahmad Badreddin. "Développement formel de systèmes temps réel à l'aide de SDL et IF ( Compilation pour système temps réel )". Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0052/these.pdf.

Texto completo
Resumen
Un système temps réel est un système qui interagit avec un environnement physique en remplissant souvent des missions critiques (une faute du système peut avoir des conséquences graves). Il sera dit correct s'il possède les bonnes fonctionnalités réalisées à temps (contraintes temporelles imposées par l’environnement ou par l’utilisateur). La validation fonctionnelle et temporelle de ces systèmes est une nécessité forte (fournisse des résultats fiables). Dans le cadre des implémentations à base d’exécutifs multitâche temps réel, le travail présenté dans cette thèse tente d’apporter une approche complète formelle de la suite spécification, conception et implémentation. Dans ce cadre, il porte aussi un intérêt particulier à une méthode de validation de la transformation entre le modèle de contraintes et le modèle d'exécution. Nous formalisons plus particulièrement des phases de spécification et la conception en utilisant le langage formel SDL. Ensuite, nous précisons explicitement les contraintes temps réel à nos modèles en utilisant le langage IF. Enfin, nous montrons formellement comment la correction du développement d’une application est prouvée
Real Time system (RTS) is a system which interacts strongly with a physical process. It is subject to strong reliability and real time constraints and to ensure the respect of the real time constraints, it is necessary o use formal languages and techniques. SDL seems to be a good candidate for the RTS development: it is a formal standardized language dedicated to distribute systems. Moreover, several works have been done to extend its use for Real Time and dedicated systems. On the basis of the SDL language, this thesis proposed a framework for the specification, design and behavioural validation of a Real-Time System supported by multitasking real-time operating systems. The specification and a design stages are formalized on the basis of the SDL specialization. To explicit the real time constraints, a precise semantic is given thanks to the IF language. Afterwards, it is shown how the correctness of an application can be formally checked
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

ARTIGUES, Christian. "Ordonnancement en temps réel d'ateliers avec temps de préparation des ressources". Phd thesis, Université Paul Sabatier - Toulouse III, 1997. http://tel.archives-ouvertes.fr/tel-00010243.

Texto completo
Resumen
Ce travail présente une méthode et des outils pour l'ordonnancement en temps réel d'atelier lorsque des contraintes complexes issues du terrain sont à prendre en compte. L'approche retenue vise à caractériser non pas une solution au problème d'ordonnancement, mais un ensemble de solutions sous la forme de groupes d'opérations permutables. Dans ce contexte, on considère un ensemble d'ordres de fabrication, chacun comportant une date de livraison et une date de début au plus tôt et étant composé d'un ensemble d'opérations d'exécution. Chaque opération d'exécution nécessite simultanément pour sa réalisation un ensemble de ressources cumulatives ou disjonctives, chacune d'elles devant être sélectionnée dans un ensemble prédéfini appelé pool. Les contraintes de précédence entre les opérations d'exécution d'un même ordre de fabrication sont définies par des gammes non linéaires. On propose de caractériser l'activité de préparation nécessaire sur un sous-ensemble des ressources requises pour réaliser une opération d'exécution, par un enchaînement de trois opérations élémentaires de préparation : le démontage, le changement de type et le montage. Chaque activité de préparation dépend de la séquence des opérations d'exécution et chaque opération de préparation peut nécessiter également des ressources complémentaires. Un graphe potentiels-tâches particulier est utilisé pour représenter une séquence de groupes. Basé sur une exploration de ce graphe, un algorithme polynomial d'insertion d'une opération dans un ordonnancement visant à minimiser la conséquence de cette insertion sur les dates de livraison, est défini. Cet algorithme est utilisé dans les méthodes proposées pour générer une séquence de groupes initiale et pour l'amélioration de type tabou de cette séquence. Ces méthodes sont validées sur des problèmes classiques d'ordonnancement de projet et sur des problèmes d'ordonnancement d' atelier avec préparation générés aléatoirement. Un système interactif d'aide à la décision est proposé pour l'ordonnancement en temps réel d'un atelier avec préparation, basé sur l'exploitation de la séquence de groupes. La nouvelle version du logiciel d'ordonnancement en temps réel ORDO basée sur ce travail est déjà installée sur plusieurs sites industriels.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Hugues, Jerome. "Architecture et Services des Intergiciels Temps Réel". Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001458.

Texto completo
Resumen
L'utilisation d'intergiciels pour la réalisation de systèmes temps réel répartis embarqus (TR2E) nécessite la preuve des propriétés de bon fonctionnement de l'intergiciel et une mesure de son impact sur la sémantique du système. Parallèlement, l'intergiciel doit être adaptable et répondre à de nombreuses contraintes (plate-forme d'exécution, ressources, interfaces de communication, ...). Cette thèse propose une architecture adaptable d'intergiciel qui permet 1) l'adaptabilité de ses fonctions élémentaires aux besoins de l'utilisateur, 2) la vérification formelle des propriétés de l'intergiciel. Cette architecture étend celle de l'intergiciel schizophrène. Elle fournit une séparation claire entre la boucle de contrôle et les services fonctionnels de l'intergiciel, facilitant le support de plusieurs politiques de concurrence et de gestions des ressources. Nous avons validé notre proposition en vérifiant formellement les propriétés causales de deux configurations de l'intergiciel, en étendant les mécanismes de l'intergiciel pour proposer une implantation complète des spcifications RTCORBA et DDS, ainsi qu'un guide pour le support d'autres classes d'intergiciels. Enfin, nous proposons une analyse complète des performances, du déterminisme et de l'empreinte mémoire de configurations significatives de l'intergiciel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Nguena, Timo Omer Landry. "Synthèse pour une Logique Temps-Réel Faible". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2009. http://tel.archives-ouvertes.fr/tel-00440829.

Texto completo
Resumen
Dans cette thèse, nous nous intéressons à la spécification et à la synthèse de contrôleurs des systèmes temps-réels. Les modèles pour ces systèmes sont des Event-recording Automata. Nous supposons que les contrôleurs observent tous les évènements se produisant dans le système et qu'ils peuvent interdirent uniquement des évènements contrôlables. Tous les évènements ne sont pas nécessairement contrôlables. Une première étude est faite sur la logique Event-recording Logic (ERL). Nous proposons des nouveaux algorithmes pour les problèmes de vérification et de satisfaisabilité. Ces algorithmes présentent les similitudes entre les problèmes de décision cités ci-dessus et les problèmes de décision similaires étudiés dans le cadre du $\mu$-calcul. Nos algorithmes corrigent aussi des algorithmes présents dans la litérature. Les similitudes relevées nous permettent de prouver l'équivalence entre les formules de ERL et les formules de ERL en forme normale disjonctive. La logique ERL n'étant pas suffisamment expressive pour décrire certaines propriétés des systèmes, en particulier des propriétés des contrôleurs, nous introduisons une nouvelle logique WTmu. La logique WTmu est une extension temps-réel faible du $\mu$-calcul. Nous proposons des algorithmes pour la vérification des systèmes lorsque les propriétés sont écrites en WTmu. Nous identifions un fragment de WTmu appelé WTmu pour le contrôle (C-WTmu). Nous proposons un algorithme qui permet de vérifier si une formule de C-WTmu possède un modèle. Cet algorithme n'a pas besoin de connaître les ressources (horloges et constante maximale comparée avec les horloges) des modèles. En utilisant C-WTmu comme langage de spécification des systèmes, nous proposons des algorithmes de décision pour le contrôle centralisé et le $\Delta$-contrôle centralisé. Ces algorithmes permettent aussi de construire des modèles de contrôleurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Chaaban, Khaled. "Architecture Informatique Temps-Réel Pour Véhicules Avancés". Phd thesis, Université de Technologie de Compiègne, 2006. http://tel.archives-ouvertes.fr/tel-00126989.

Texto completo
Resumen
Cette thèse se situe dans le domaine des systèmes informatiques temps-réel embarqués, plus particulièrement les logiciels embarqués dans l'automobile pour tous les dispositifs émergents et à venir d'évaluation des systèmes d'aide à la conduite (ADAS) pour les prochaines générations de véhicules. Ce document présente les trois axes principaux des travaux de cette thèse : Le premier axe comprend le développement d'un middleware reconfigurable dynamiquement, SCOOT-R. Le deuxième axe concerne le développement des techniques d'ordonnancement distribuées des opérations SCOOT-R avec un objectif de qualité de service de bout en bout. Finalement, le développement des techniques d'ordonnancement régulé pour l'adaptation du système à des situations de conduite et comportements du conducteur variables. Dans ce cas l'importance des fonctions est adaptée suivant le contexte momentané du système.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Dima, Catalin. "Théorie algébrique des langages formels temps réel". Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004672.

Texto completo
Resumen
Un automate temporisé est un automate augmenté avec plusieurs horloges qui mesurent le passage de temps et peuvent conditionner la modification de l'état du système. Les automates temporisés ont été introduits en tant que modèle formel pour les systèmes temps-réel, en espérant que leur rôle dans la vérification de tels systèmes sera similaire au rôle des automates finis dans la recherche systématique des erreurs de conception de systèmes non-temporisés. Dans notre thèse nous étudions plusieurs questions théoriques liés aux automates temporisés et aux langages temporisés. Dans une première partie nous étudions une sous-classe simple d'automates temporisés à une seule horloge qui est remise à zéro pendant chaque transition. Nous montrons que cette sous-classe supporte des résultats similaires à la théorie classique des automates finis: des théorèmes de Kleene, de Myhill-Nerode et de fermeture par complémentation. La deuxième et principale partie de la thèse est motivée par les expressions régulières temporisés de Asarin, Caspi et Maler. Depuis leur introduction, on sait qu'il faut employer l'intersection dans les expressions régulières pour que leur expressivité soit égale aux automates temporisés. Nous poursuivons alors une approche alternative en utilisant des parenthèses colorées pour définir les contraintes temporelles sur une séquence d'événements. Cette idée aboutit à une représentation alternative des langage des automates temporisés, basée sur une nouvelle classe de langages formels que nous appelons . Nous développons alors la théorie des expressions régulières sur les regminos et nous montrons que le problème de sémantique vide est indécidable en cas général, et décidable pour une sous-classe large de langages. L'application de ces résultats nous amène à des nouvelles structures de données et à des algorithmes pour le problème du langage vide dans les automates temporisés et les expressions régulières.
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Kelper, Bruno de. "Simulation en temps réel d'un convertisseur HTCC". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape11/PQDD_0021/MQ46647.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Rollet, Antoine. "Test de robustesse des systèmes temps-réel". Reims, 2004. http://theses.univ-reims.fr/exl-doc/GED00000108.pdf.

Texto completo
Resumen
De nos jours, les systèmes temps-réel deviennent de plus en plus complexes et ont souvent de lourdes responsabilités. C'est pourquoi il est nécessaire de valider ce genre de systèmes avant leur mise en service. Cette thèse va se positionner dans le cadre du test de robustesse, plus particulièrement pour les systèmes temps-réel et à base de composants. Dans un premier temps, nous présentons une méthode de test de robustesse pour système temps-réel, considérant comme point de départ deux spécifications sous forme d'automates temporisés : une nominale et une dégradée. Nous provoquons une situation inattendue pour le système en mutant les séquences de test. Dans une seconde partie, nous exposons une architecture et un algorithme d'exécution pour tester un système temps-réel à base de composants. Dans une troisième partie, nous présentons un outil de génération de séquences de test que nous avons développé
Nowadays, real-time systems are getting more an more complex and take often care of human lifes or sensitive systems. Therefore, such systems have to be validated before beeing used. This document deals with robustness testing, especially for real-time and component based systems. Firstly, we present a robustness testing method for real-time systems, considering two specifications given in the timed automata model : a nominal one and a degraded one. We provoque an unexpected situation for the system by adding some hazards in the test sequences. Secondly, we expose an architecture an a test execution algorithm for real-time component based systems. Thirdly, we present our tool for sequence generation
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Porquet, Damien. "Rendu en temps réel de scènes complexes". Limoges, 2004. http://aurore.unilim.fr/theses/nxfile/default/fdef9900-123a-4d8a-ada2-c65cf3c94a1f/blobholder:0/2004LIMO0036.pdf.

Texto completo
Resumen
En informatique graphique, on distingue la modélisation de l'environnement 3D de son rendu, c'est à dire de la synthèse effective d'images. Le cadre dans lequel s'inscrit cette thèse est le rendu en temps réel de scènes composées de modèles 3D complexes non déformables, très finement détaillés. De tels modèles permettent un grand réalisme dans les images produites mais sont également très coûteux utiliser (espace mémoire et temps de calcul). De nombreux travaux ont été proposés dans ce cadre. Nous décrivons différentes approches du problème : le rendu à base de points, la simplification de maillages géométriques et le rendu à base d'images. Nous étendons au temps réel des méthodes d'interpolation d'images, en proposant plusieurs algorithmes différents. Nous décrivons une méthode de génération de textures directionnelles 4D permettant d'obtenir l'image d'un modèle sous un angle quelconque indépendamment de sa complexité géomérique. Finalement, nous présentons une méthode d'interpolation d'images permettant de reconstruire le relief d'un modèle par placage d'images de références. Nous décrivons les travaux utilisant cette méthode appliquée à une image de profondeurs et à un maillage géométriquement simplifié. Ces travaux utilisent intensivement les cartes graphiques récentes permettant d'obtenir à la fois une haute qualité de rendu et de grandes capacités de calcul
In computer graphics, we distinguish modeling from rendering, that is image synthesis. This thesis framework is real-time rendering of scene composed of complex non deformable 3D objects. Such objects gives high realism in computed images but are difficult to use (in terms of storage space and computing time). A lot of works as been driven in this context. We first describe commonly used approach that is point sample rendering, geometrical mesh simplification and image-based rendering. We first propose different algorithms to extend image based methods to real-time rendering. We then describe a method to generate 4D textures producing image of a given 3D object from arbitrary viewpoint, independently of its geometrical complexity. Finally, we present an image interpolation method to map relief onto a given depth image or a low polygon count version of a complex object. This works intensively use latest GPU capabilities, allowing high quality and real-time rendering at same time
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Bridault, Flavien. "Animation et rendu temps-réel de flammes". Littoral, 2007. http://www.theses.fr/2007DUNK0200.

Texto completo
Resumen
Le feu est un phénomène naturel particulièrement difficile à décrire en synthèse d’images. Ces dernières années, les modèles basés sur la physique relativement convaincants ont été conçus, mais ceux-ci restent coûteux. Or, certaines applications requièrent des performances temps-réel : les jeux vidéos, les environnements virtuels tels que les reconstitutions archéologiques, etc…Quelques approches répondant à cette contrainte ont été proposées, mais elles manquent visuellement de réalisme à cause des approximations concédées. C’est dans cette optique que nous avons cherché à développer un modèle à la fois temps-réel et visuellement réaliste. Nous nous sommes focalisés sur les feux « domestiques » : les flammes de bougies, lampes à huile, torches, feux de camp, etc… Ces flammes sont animées de façon interactive grâce à l’utilisation d’une simulation de fluides optimisée. L’originalité principale de notre approche réside dans l’utilisation de surfaces NURBS texturées pour visualiser les flammes. Nous avons également fourni des mécanismes permettant de contrôler simplement la simulation. Par ailleurs, nous avons proposé une méthode d’éclairage à partir d’un solide photométrique pour représenter plus fidèlement l’illumination des flammes. Enfin, nous nous sommes intéressés à l’animation de dizaines de flammes simultanément. Pour parvenir à cet objectif, nous avons introduit des niveaux de détail dans l’animation et le rendu des flammes en fonction de la distance d’observation. Ces niveaux de détail peuvent par ailleurs servir à adapter la précision du modèle en fonction des ressources disponibles ou de l’objectif visé par l’application
Fire is a difficult natural phenoma to reproduce in computer graphics. Last years, convincing models based on physics werre designed, but they remain expensive. However some applications require real-time frame rates : video games, virtual environments such as archaelogical sites etc. . . Few real-times approaches were proposed, but they really suffer from a lack of realism, because of all the approximations they realize. In this context, we tried to develop a real-time model which is also visually realistic. We focused on “domestic” fires : candles, oil lamps, torches, camp fires, etc. . . These flames are interactively animated thanks to an optimized fluids simulation. The main contribution of our approach is the use of textured NURBS surfaces to visualize flames. We also introduced mechanisms to give a good control over the simulation. Moreover, we proposed a new lighting method with a photometric solid to represent flames illumination. Last, we considered animation of plentiful flames. To reach this goal, we introduced levels of detail both in the animation and in the rendering stages, according to the distance from the sources. These levels of detail can also be useful to adapt the accuracy of the model in respect of resources or applications purpose
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Koscianski, André. "Modèles de mécanique pour le temps réel". INSA de Rouen, 2004. http://www.theses.fr/2004ISAM0012.

Texto completo
Resumen
Les modèles mathématiques traditionnellement présentés sous la forme d'équations différentielles peuvent être inadéquats à un usage où les contraintes de temps et de calcul sont importantes. C'est le cas des applications au temps réel tels les logiciels de simulation, contrôle, réalité virtuelle, etc. Une représentation obtenue par régression de données est souvent plus légère ; cependant le problème peut être mal posé et on n'assure pas l'obtention du comportement du phénomène étudié. Dans cette thèse, on propose l'utilisation simultanée d'un modèle mathématique et d'un ensemble de données à l'aide de techniques de régularisation pour obtenir une représentation à la fois légère et qui respecte un comportement prescrit. La technique est illustrée dans quelques situations et en faisant appel aux réseaux de neurones. Ce procédé fournit des points de démarrage et pourrait remplacer des règles heuristiques telles celle de Nguyen-Widrow.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Meftouh, Fouad. "Système de commande temps-réel multi-agents". Toulouse, ENSAE, 1993. http://www.theses.fr/1993ESAE0029.

Texto completo
Resumen
Une application multi-robots peut être vue comme une population d'agents plus ou moins intelligents coopérant à la réalisation d'une mission. L’examen des problèmes de mise en œuvre de ces agents dans un environnement temps-réel, et des solutions permettant de les résoudre, constitue le centre d'intérêt de cette étude. Nous analysons dans un premier temps quelques architectures de commande de systèmes robotiques, ainsi que les modèles objets et acteurs et quelques-unes de leurs extensions ; et nous montrons l'adéquation de l'approche objet/acteur au problème de contrôle/commande des systèmes robotiques. Nous proposons alors un modèle de représentation des agents de commande (agent exécutif), ainsi que des modèles de communication et de synchronisation alliant asynchronisme et réactivité. Ces modèles prennent en compte la nécessité de transparence des interactions entre agents aux réseaux de communication, au système d'exploitation, et à l'hétérogénéité éventuelle des langages et des machines. Ces différents modèles sont intégrés dans un micro-noyau pouvant équiper toute machine temps-réel ou non. Ce dernier est composé de quatre couches hiérarchiques, dont la plus basse représente l'interface avec le système d'exploitation et la machine, et la plus haute représente une extension du langage objet, utilisé pour l'implantation du micro-noyau, en un langage objet intégrant le parallélisme, la distribution et la communication asynchrone. Une maquette de ce micro-noyau a été réalisée en C++ et a conduit à une extension de ce langage (C++a) et un environnement d'accueil d'applications robotiques basé sur les notions définies est proposé.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía