Dissertations / Theses on the topic 'Protocole des Applications à contraintes'

To see the other types of publications on this topic, follow the link: Protocole des Applications à contraintes.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Protocole des Applications à contraintes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tfaily, Souayed Rima. "Les applications des environnements virtuels distribués à retour d'effort : contraintes et solutions sur un réseau IP." Troyes, 2005. http://www.theses.fr/2005TROY0002.

Full text
Abstract:
Actuellement, la disponibilité croissante des dispositifs haptiques dans le commerce fait que les systèmes distribués de réalités virtuelles sont de plus en plus intégrés avec des interfaces haptiques (à retour d’effort). Cependant, cela entraîne des difficultés techniques à cause de l'interaction haptique disponible en temps réel dans les environnements virtuels distribués. Lorsque les environnements virtuels communiquent à travers le réseau, le délai imprévisible, la variation du délai (la gigue), la perte de paquet, etc. Affecterons la performance de l'interaction haptique. Malgré plusieurs recherches menées pour trouver une manière d'établir l'interaction multimodale sur les réseaux, les études sur la performance des systèmes Distributed Haptic Virtual Environments (DHVEs) dans les réseaux IP n’ont pas été entièrement étudiées et les travaux sur ce sujet sont rares. Aussi, les exigences de la qualité de service (QoS) des données haptiques ne sont pas clairement déterminées et les solutions pour traiter les effets du réseau sur ces environnements sont rares. Notre travail se concentre sur la détermination des exigences de QoS du sens de retour d’effort dans les réseaux IP et sur la détermination des seuils supérieurs de QoS que ces données haptiques devraient demander. Pour faire ainsi, des évaluations subjectives et objectives ont été menées sur deux plates-formes expérimentales: Fast Ethernet Network et Network Impairment Emulation platforms, installées à Queen’s Univerity of Belfast. Nos expériences sur ces plates-formes ont montré que les exigences de QoS pour les applications DHVE ne peuvent pas être satisfaites à travers le service best effort. Par conséquent, nous avons appliqué des services différenciés (DiffServ) sur les noeuds de réseau et nous avons également déterminé les politiques appropriées pour améliorer la performance des applications DHVE. Cependant, DiffServ est insuffisant pour adapter les exigences des systèmes DHVEs aux conditions dynamiques du réseau. Pour résoudre ce problème, no us avons adopté des stratégies de contrôle adaptatives dans le système de communication haptique. Les stratégies de contrôle ont pour rôle d'adapter la communication haptique selon les conditions de réseau. Ces techniques de contrôle ont été simulées sur MatLab
Recently, as an increasing number of haptic devices became commercially available, more and more distributed virtual reality systems are integrated with haptic interfaces. However, there are technical difficulties in providing real-time haptic interaction in distributed virtual environments and these problems persist. Whenever virtual environments communicate via the network, unpredictable time delay and delay variation, packet loss, etc. Affects the performance of haptic interaction. Despite that many research works have been conducted to find a way of establishing multimodal interaction over networks, studies on the performance of DHVEs on IP networks have not been fully investigated and the literature on this topic is limited. In addition, Quality of Service (QoS) requirements of force feedback have not been clearly determined and solutions to deal with the network impairments are scarce. In this dissertation, I focus on determining the QoS requirements for conveying the force feedback over IP networks and for determining the upper thresholds that the haptic data should request. To do so, subjective and objective assessments have been conducted on two experimental platforms: Fast Ethernet Network and Network Impairment Emulation platforms, installed at Queen’s University of Belfast. The QoS requirements for DHVE applications cannot be satisfied in best effort service as the experiments report. Therefore, I applied differentiated Services (DiffServ) on network nodes and I determined which policies are appropriate to improve the DHVE application performance. However, DiffServ is insufficient to adapt the DHVE requirements to the dynamic network conditions; Thus, I incorporated adaptive control strategies into the haptic communication system. Control strategies are to adapt the haptic communication according to the network conditions. These techniques have been simulated on MatLab
APA, Harvard, Vancouver, ISO, and other styles
2

Bouzefrane, Samia. "Etude temporelle des applications temps réel distribuées à contraintes strictes basée sur une analyse d'ordonnançabilité." Poitiers, 1998. http://www.theses.fr/1998POIT2254.

Full text
Abstract:
Ce travail presente une methodologie de modelisation et de validation d'applications temps reel reparties. Ces applications composees de taches reparties sur differents sites communiquent par echange de messages a travers un reseau de communication a delai d'acces borne suppose fiable. La methodologie developpee est basee sur une analyse d'ordonnancabilite des taches et des messages. L'objectif est d'une part de verifier le respect des contraintes temporelles globales d'une application temps reel repartie c'est a dire le respect, a la fois, des contraintes temporelles des taches et de celles des messages echangees entre ces taches et d'autre part d'utiliser les sequences d'execution obtenues pour faire une analyse de performance. Cette methodologie comprend trois etapes : la modelisation de l'application basee sur un modele temporel des taches, la prise en compte de la communication par derivation des parametres temporels des taches et l'ordonnancement des taches sur les sites et des messages sur le medium de communication. Un outil, appele mosarts, qui integre un calcul des criteres de performance implemente cette methodologie d'analyse.
APA, Harvard, Vancouver, ISO, and other styles
3

Bursuc, Sergiu. "Contraintes de déductibilité dans une algèbre quotient : réduction de modèles et applications à la sécurité." Cachan, Ecole normale supérieure, 2009. http://www.theses.fr/2009DENS0055.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la vérification des protocoles de sécurité. Ce sont des programmes dont le but est d'établir une communication sûre entre plusieurs agents. Quasiment toutes les applications modernes ont besoin des protocoles de sécurité pour assurer leur bon fonctionnement, ce qui rend d'autant plus importante la question de leur correction et demande une réponse basée sur des arguments rigoureux. Les méthodes formelles, où les messages et les opérations sont abstraits par une algèbre de termes, se sont avérées cruciales dans cette démarche. Cependant, pour avoir une modélisation fidèle de la réalité, l'algèbrene peut être libre, mais doit incorporer des propriétés des algorithmes utilisées pour construire les messages. Dans ce contexte, motivés à la fois par des besoins pratiques et des intérêts théoriques, nous étudions les techniques générales pour la vérification des propriétés de sécurité de protocoles modulo une théorie équationnelle, à travers la résolution de contraintes de déductibilité
To enable formal and automated analysis of security protocols, one has to abstract implementations of cryptographic primitives by terms in a given algebra. However, the algebra can not be free, as cryptographic primitives have algebraic properties that are either relevant to their specification or else they can be simply observed in implementations at hand. These properties are sometimes essential for the execution of the protocol, but they also open the possibility for an attack, as they give to an intruder the means to deduce new information from the messages that he intercepts over the network. In consequence, there was much work over the last few years towards enriching the Dolev-Yao model, originally based on a free algebra, with algebraic properties, modelled by equational theories. In this thesis, driven by both practical and theoretical interests, we propose general decision procedures for the insecurity of protocols, that can be applied to several classes of equational theories
APA, Harvard, Vancouver, ISO, and other styles
4

Makarem, Nabil. "Performance evaluation and improvement of congestion control of the constrained application protocol for the Internet-of-things." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS289.

Full text
Abstract:
Dans ce travail de recherche, nous proposons de nouveaux modèles mathématiques exacts pour analyser les performances de CoAP dans les réseaux IoT avec perte. Cette étude présente les différentes approches pour améliorer le contrôle de la congestion CoAP et met en évidence les propriétés - y compris les limites - de CoAP. En outre, nous montrons que le mécanisme de contrôle simple réduit considérablement les performances de CoAP, notamment en termes d'utilisation de la bande passante, car il empêche le protocole d'agir efficacement pendant les périodes de congestion. Nous proposons ensuite de nouvelles améliorations qui considèrent un compromis entre fiabilité et bon débit tout en gardant les algorithmes raisonnablement simples pour les dispositifs contraints. Premièrement, nous optimisons davantage la procédure d'estimation du délai de retransmission afin d'améliorer la détection de congestion. Deuxièmement, nous remplaçons l'algorithme de backoff par des algorithmes de contrôle de congestion "réels" inspirés de la technique bien connue sous le nom de Additive Augmentation Multiplicative Decrease (Augmentation Additive et Diminution Multiplicative) et d'un contrôle de congestion récent basé sur la mesure appelé BBR (Bottleneck Bandwidth and Round-trip propagation time). Notre analyse utilisant à la fois notre simulateur et l'environnement Contiki/Cooja montre que l'approche basée sur le taux surpasse l'approche basée sur le backoff. De plus, tous les résultats montrent que nos algorithmes réalisent un bien meilleur compromis entre bon débit, fiabilité et surcoût
The Constrained Application Protocol (CoAP) is a lightweight core protocol designed by the Internet Engineering Task Force (IETF) used for communication between devices in the Internet of Things (IoT). In this research work, we propose new exact mathematical models to analyze the performance of CoAP in lossy IoT networks. This study provides insights about improving CoAP congestion control in such networks and highlights the properties -- including the limitations -- of CoAP. Besides, we show that the simple control mechanism reduces significantly CoAP performance especially in terms of bandwidth utilization since it prevents the protocol from acting efficiently during congestion periods. We then propose new improvements in order to enhance the trade-off between reliability and goodput while keeping the algorithms reasonably simple for constrained devices. First, we optimize further the estimation procedure of the retransmission timeout in order to enhance congestion detection. Timeouts are the only indicator used in CoAP to detect losses, and losses are used as a strong indicator to detect congestion. Second, we replace the backoff algorithm by "real" congestion control algorithms inspired from the well-known Additive Increase Multiplicative Decrease technique and a recent measurement-based congestion control called BBR. Our analysis using both our simulator and Contiki/Cooja environment show that the rate-based approach outperforms the backoff-based approach. Moreover, all the results show that our algorithms achieve a much better tradeoff between goodput, reliability and overhead
APA, Harvard, Vancouver, ISO, and other styles
5

Avanesov, Tigran. "Résolution de contraintes de déductibilité : application à la composition de services Web sécurisés." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00641237.

Full text
Abstract:
Les contraintes de déductibilité ont été introduites pour vérifier les protocoles cryptographiques. Cette thèse présente une procédure de décision pour le problème de satisfaisabilité des systèmes généraux de contraintes de déductibilité. Deux cas sont envisagés: la théorie de Dolev-Yao standard et son extension par un opérateur associatif, commutatif, idempotent. Le résultat est utilisé pour résoudre le problème de l'orchestration automatique et distribué de services Web sécurisés. Comme seconde application nous proposons une procédure pour décider la sécurité d'un nombre fini de sessions de protocole en présence de plusieurs intrus qui ne communiquent pas. Nous montrons également comment il est possible de détecter certaines attaques par réécriture qui exploitent le format des messages en XML.
APA, Harvard, Vancouver, ISO, and other styles
6

Olarte, Carlos. "Programmation Concurrent par Contraintes pour Vérifier un Protocole de Sécurité." Phd thesis, Ecole Polytechnique X, 2009. http://tel.archives-ouvertes.fr/tel-00430446.

Full text
Abstract:
La Programmation Concurrente par Contraintes (CCP) est un modèle mathématique pour la spécification de systèmes concurrents où les agents (processus) ajoutent de l'information ou interrogent si certains faits peuvent être déduits. Dans ce modèle, l'information est représentée par un ensemble de contraintes. La Programmation Temporelle Concourante par Contraintes (tcc) est un extension de CCP où l'exécution des processus a lieu dans des intervalles de temps. Ce mémoire étudie tcc en tant que modèle concurrent pour les systèmes mobiles et développe le calcul de processus utcc, Universal Temporal CCP. La thèse proposée est qu'utcc est un modèle concurrent où les techniques comportementales et déclaratives peuvent être utilisées pour la spécification et la vérification des systèmes concurrents. La calcul utcc généralise tcc en permettant la possibilité de spécifier la mobilité. Ici le terme mobilité est compris comme la possibilité de communiquer des variables ou des canaux locaux comme dans le cas du pi-calcul. Utcc introduit un opérateur "ask" paramétrique que nous appelons "abstraction". Cet opérateur est persistent pendant un intervalle de temps et il disparaît au moment de passer à l'intervalle de temps suivant. Nous présentons l'utilisation d'utcc dans plusieurs domaines: Nous prouvons l'incomplétude de la logique temporelle de Pnueli, nous modélisons et vérifions des protocoles de sécurité et des systèmes dynamique d'interaction multimédia et nous donnons une sémantique déclarative à un langage pour le web-services.
APA, Harvard, Vancouver, ISO, and other styles
7

Siafa, Amine. "Protocole multipoint fiable et ordonné pour applications coopératives asynchrones." Chambéry, 1998. http://www.theses.fr/1998CHAMS024.

Full text
Abstract:
Un nombre important de protocoles de communication multipoint ont été développés pour supporter les besoins très variés des applications de groupe en termes de fiabilité, d'extensibilité, d'ordre, de débit, etc. Etant donnée la variété des besoins, la conception d'un protocole multipoint satisfaisant un large ensemble d'applications parait impossible sans l'introduction de la notion de qualité de service. L'introduction de la qualité de service confère au protocole la proprete de flexibilité qui permet de répondre aux besoins subtils de certaines applications, sans pour autant pénaliser les applications dont les besoins en services sont plus modestes. De plus, les services fournis peuvent co-exister au sein d'une même application. Cela peut être rendu possible en appliquant la qualité de service requise sur chaque paquet diffusé. C'est dans cet esprit que nous avons proposé FMP (flexible multicast protocol), un protocole qui repose, d'une part, sur le principe d'un support d'accueil minimal et fiable (application level framing), et d'autre part, sur le principe d'un support offrant divers services multipoints sélectionnables sur la base de chaque paquet diffusé. FMP repose sur une architecture en couches qui permet des groupes ayant des besoins différents de coexister dans un même système. Le modèle de communication repose sur une collection de services de fiabilité et d'ordre au-dessus d'un service de livraison de type best-effort). Nous proposons deux modules d'ordonnancement total et causal. L'ordre total fournit un modèle d'exécution virtuellement synchrone utilisable notamment par les protocoles de gestion de groupe, alors que l'ordre causal est un ordre partiel qui n'induit pas le degré de synchronisme élevé inhérent aux protocoles atomiques. Pour réaliser FMP, nous avons utilisé" un langage de spécification formelle (estelle). Ce langage fournit une modularité et une encapsulation des données et des comportements, permettant la construction de protocoles par la combinaison des descriptions d'objets hiérarchisés et réutilisables. Le comportement de chaque objet est décrit de manière rigoureuse par des automates à états finis
APA, Harvard, Vancouver, ISO, and other styles
8

Peng, Shen. "Optimisation stochastique avec contraintes en probabilités et applications." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS153/document.

Full text
Abstract:
L'incertitude est une propriété naturelle des systèmes complexes. Les paramètres de certains modèles peuvent être imprécis; la présence de perturbations aléatoires est une source majeure d'incertitude pouvant avoir un impact important sur les performances du système. Dans cette thèse, nous étudierons les problèmes d’optimisation avec contraintes en probabilités dans les cas suivants : Tout d’abord, nous passons en revue les principaux résultats relatifs aux contraintes en probabilités selon trois perspectives: les problèmes liés à la convexité, les reformulations et les approximations de ces contraintes, et le cas de l’optimisation distributionnellement robuste. Pour les problèmes d’optimisation géométriques, nous étudions les programmes avec contraintes en probabilités jointes. A l’aide d’hypothèses d’indépendance des variables aléatoires elliptiquement distribuées, nous déduisons une reformulation des programmes avec contraintes géométriques rectangulaires jointes. Comme la reformulation n’est pas convexe, nous proposons de nouvelles approximations convexes basées sur la transformation des variables ainsi que des méthodes d’approximation linéaire par morceaux. Nos résultats numériques montrent que nos approximations sont asymptotiquement serrées. Lorsque les distributions de probabilité ne sont pas connues à l’avance, le calcul des bornes peut être très utile. Par conséquent, nous développons quatre bornes supérieures pour les contraintes probabilistes individuelles, et jointes dont les vecteur-lignes de la matrice des contraintes sont indépendantes. Sur la base des inégalités de Chebyshev, Chernoff, Bernstein et de Hoeffding, nous proposons des approximations déterministes. Des conditions suffisantes de convexité. Pour réduire la complexité des calculs, nous reformulons les approximations sous forme de problèmes d'optimisation convexes solvables basés sur des approximations linéaires et tangentielles par morceaux. Enfin, des expériences numériques sont menées afin de montrer la qualité des approximations étudiées sur des données aléatoires. Dans certains systèmes complexes, la distribution des paramètres aléatoires n’est que partiellement connue. Pour traiter les incertitudes dans ces cas, nous proposons un ensemble d'incertitude basé sur des données obtenues à partir de distributions mixtes. L'ensemble d'incertitude est construit dans la perspective d'estimer simultanément des moments d'ordre supérieur. Ensuite, nous proposons une reformulation du problème robuste avec contraintes en probabilités en utilisant des données issues d’échantillonnage. Comme la reformulation n’est pas convexe, nous proposons des approximations convexes serrées basées sur la méthode d’approximation linéaire par morceaux sous certaines conditions. Pour le cas général, nous proposons une approximation DC pour dériver une borne supérieure et une approximation convexe relaxée pour dériver une borne inférieure pour la valeur de la solution optimale du problème initial. Enfin, des expériences numériques sont effectuées pour montrer que les approximations proposées sont efficaces. Nous considérons enfin un jeu stochastique à n joueurs non-coopératif. Lorsque l'ensemble de stratégies de chaque joueur contient un ensemble de contraintes linéaires stochastiques, nous modélisons ces contraintes sous la forme de contraintes en probabilité jointes. Pour chaque joueur, nous formulons les contraintes en probabilité dont les variables aléatoires sont soit normalement distribuées, soit elliptiquement distribuées, soit encore définies dans le cadre de l’optimisation distributionnellement robuste. Sous certaines conditions, nous montrons l’existence d’un équilibre de Nash pour ces jeux stochastiques
Chance constrained optimization is a natural and widely used approaches to provide profitable and reliable decisions under uncertainty. And the topics around the theory and applications of chance constrained problems are interesting and attractive. However, there are still some important issues requiring non-trivial efforts to solve. In view of this, we will systematically investigate chance constrained problems from the following perspectives. As the basis for chance constrained problems, we first review some main research results about chance constraints in three perspectives: convexity of chance constraints, reformulations and approximations for chance constraints and distributionally robust chance constraints. For stochastic geometric programs, we formulate consider a joint rectangular geometric chance constrained program. With elliptically distributed and pairwise independent assumptions for stochastic parameters, we derive a reformulation of the joint rectangular geometric chance constrained programs. As the reformulation is not convex, we propose new convex approximations based on the variable transformation together with piecewise linear approximation methods. Our numerical results show that our approximations are asymptotically tight. When the probability distributions are not known in advance or the reformulation for chance constraints is hard to obtain, bounds on chance constraints can be very useful. Therefore, we develop four upper bounds for individual and joint chance constraints with independent matrix vector rows. Based on the one-side Chebyshev inequality, Chernoff inequality, Bernstein inequality and Hoeffding inequality, we propose deterministic approximations for chance constraints. In addition, various sufficient conditions under which the aforementioned approximations are convex and tractable are derived. To reduce further computational complexity, we reformulate the approximations as tractable convex optimization problems based on piecewise linear and tangent approximations. Finally, based on randomly generated data, numerical experiments are discussed in order to identify the tight deterministic approximations. In some complex systems, the distribution of the random parameters is only known partially. To deal with the complex uncertainties in terms of the distribution and sample data, we propose a data-driven mixture distribution based uncertainty set. The data-driven mixture distribution based uncertainty set is constructed from the perspective of simultaneously estimating higher order moments. Then, with the mixture distribution based uncertainty set, we derive a reformulation of the data-driven robust chance constrained problem. As the reformulation is not a convex program, we propose new and tight convex approximations based on the piecewise linear approximation method under certain conditions. For the general case, we propose a DC approximation to derive an upper bound and a relaxed convex approximation to derive a lower bound for the optimal value of the original problem, respectively. We also establish the theoretical foundation for these approximations. Finally, simulation experiments are carried out to show that the proposed approximations are practical and efficient. We consider a stochastic n-player non-cooperative game. When the strategy set of each player contains a set of stochastic linear constraints, we model the stochastic linear constraints of each player as a joint chance constraint. For each player, we assume that the row vectors of the matrix defining the stochastic constraints are pairwise independent. Then, we formulate the chance constraints with the viewpoints of normal distribution, elliptical distribution and distributionally robustness, respectively. Under certain conditions, we show the existence of a Nash equilibrium for the stochastic game
APA, Harvard, Vancouver, ISO, and other styles
9

LAUNAY-ILIADIS, MARIE-CAMILLE. "Elaboration d'un protocole optimal en pharmacocinetique clinique : applications a des anticancereux." Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX22980.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ducasse, Jean-Marie. "Randonnée pédestre et en raquettes (en moyenne montagne) : proposition d'un protocole d'étude des contraintes cardio-respiratoires en situation." Bordeaux 2, 1999. http://www.theses.fr/1999BOR2M153.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Ciuca, Marian. "Estimation non-paramétrique sous contraintes. Applications en finance stochastique." Aix-Marseille 1, 2003. http://www.theses.fr/2003AIX11018.

Full text
Abstract:
Les mathématiques financières peuvent requerir, par rapport à la formule de Black-Scholes, l'estimation non-paramétrique uni-latérale de la fonction de volatilité: l'estimateur doit être toujours plus grand ou égal à la fonction estimée. Dans la première partie nous construisons des estimateurs par ondelettes, linéaires et non-linéaires, du coefficient de diffusion d'un processus de diffusion, et calculons leur vitesses de convergences dans un contexte minimax, et respectivement, adaptatif, lorsque la fonction estimée appartient à des classes de régularité de Besov, en utilisant la norme uniforme comme mesure de la qualité d'un estimateur; nous construisons ensuite un estimateur asymptotiquement uni-latéral du coefficient de diffusion et calculons sa vitesse de convergence minimax. Dans la deuxième partie nous étudions le problème d'estimation uni-latéral dans le modèle de bruit blanc gaussian, et mettons en évidence la vitesse de convergence minimax de ce problème d'estimation non-paramétrique sous contraintes, démontrant des résultats de borne infériuere et supérieure. Dans la troisième partie, nous prouvons que nos estimateurs de la volatilité, engendrent des stratégies Black-Scholes asymptotiquement répliquantes, super-répliquantes et sub-répliquantes. Le dernière partie présente nos estimateurs de point de vue appliqué, à l'aide de simulations numériques
In financial mathematics, when using the celebrated Black-Scholes formula one can be asked to nonparametrically estimate the volatility function in a one-side manner: the estimator has to be always grater than, or equal to, the estimated function. In the first part, working over Besov smoothenss classes, we construct wavelet linear and non-linear estimators of the diffusion coefficient of a diffusion process, using the sup-norm as a quality criterion for an estimator, and compute their convergence rates, in a minimax, and respectively adaptive, context; then we construct an asymptotically one-sided diffusion coefficient estimator and compute its minimax convergence rate. In the second part we study the one-side estimation problem in the Gaussian white noise model, and exhibit the minimax convergence rate for this constrained nonparametric estimation problem, proving lower and upper bound results. In the third part, we prove that our volatility estimators yield Black-Scholes asymptotically replicating, super-replicating and sub-replicating strategies. The last part presents our estimators from an applied point of view, by means of numerical simulations
APA, Harvard, Vancouver, ISO, and other styles
12

Talbot, Jean-Marc. "Contraintes ensemblistes définies et co-définies : extensions et applications." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-367.pdf.

Full text
Abstract:
Les contraintes ensemblistes permettent d'exprimer des relations entre des ensembles d'arbres finis. Syntaxiquement, elles consistent en des inclusions ou des non-inclusions entre des expressions ensemblistes comportant les operateurs usuels de la theorie de ensembles, comme l'union, l'intersection, le complementaire, mais egalement la composition fonctionnelle et des operateurs de projections. L'un des domaines d'application de ces contraintes est l'analyse de programmes, connu sous le nom d'analyse ensembliste. Dans ce travail, nous nous interessons a deux classes de contraintes introduites pour ces motivations : la classe definie proposee par heintze et jaffar et la classe co-definie par charatonik et podelski. Nous proposons pour chacune d'elles une extension. Celles-ci consistent a ajouter des descriptions intensionnelles sous la forme de formules positives monadiques. Ces classes sont alors dites generalisees. Pour la classe definie generalisee (interpretee sur les ensembles d'arbres finis) un algorithme repondant au probleme de satisfiabilite est presente. Celui-ci, base sur les automates d'arbres, donne pour un systeme satisfiable une representation de la plus petite solution. Cet algorithme donne egalement un test de satisfiabilite pour la classe co-definie generalisee (interpretee sur les ensembles d'arbres finis), puisqu'elle se revele etre la duale par complementation de celle definie generalisee. Nous nous interessons alors a la classe co-definie generalisee, mais interpretee sur les ensembles d'arbres finis ou infinis. Nous proposons pour celle-ci un algorithme pour la satisfiabilite utilisant egalement des automates d'arbres et calculant pour un systeme satisfiable la plus grande solution de celui-ci.
APA, Harvard, Vancouver, ISO, and other styles
13

Le, Guyader Carole. "Imagerie Mathématique: segmentation sous contraintes géométriques ~ Théorie et Applications." Phd thesis, INSA de Rouen, 2004. http://tel.archives-ouvertes.fr/tel-00009036.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à des problèmes de segmentation d'images sous contraintes géométriques. Cette problématique a émergé suite à l'analyse de plusieurs méthodes classiques de détection de contours qui a été faite. En effet, ces méthodes classiques (Modèles déformables, contours actifs géodésiques, 'fast marching', etc...) se révèlent caduques quand des données de l'image sont manquantes ou de mauvaise qualité. En imagerie médicale par exemple, des phénomènes d'occlusion peuvent se produire : des organes peuvent se masquer en partie l'un l'autre (ex du foie). Par ailleurs, deux objets qui se jouxtent peuvent posséder des textures intrinsèques homogènes si bien qu'il est difficile d'identifier clairement l'interface entre ces deux objets. La définition classique d'un contour qui est caractérisé comme étant le lieu des points connexes présentant une forte transition de luminosité ne s'applique donc plus. Enfin, dans certains contextes d'étude, comme en géophysique, on peut disposer en plus des doneées d'imagerie, de données géométriques à intégrer au processus de segmentation.

Pour pallier ces difficultés, nous proposons ici des modèles de segmentation intégrant des contraintes géométriques et satisfaisant les critères classiques de détection avec en particulier la régularité sur le contour que cela implique.
APA, Harvard, Vancouver, ISO, and other styles
14

Le, Guyader Carole. "Imagerie mathématique : segmentation sous contraintes géométriques : théorie et applications." Phd thesis, Rouen, INSA, 2004. http://www.theses.fr/2004ISAM0016.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à des problèmes de segmentation d'images sous contraintes géométriques. Cette problématique a émergé suite à l'analyse de plusieurs méthodes classiques de détection de contours qui a été faite. En effet, ces méthodes classiques (Modèles déformables, contours actifs géodésiques, "fast marching", etc. . . ) se révèlent caduques quand des données de l'image sont manquantes ou de mauvaise qualité. En imagerie médicale par exemple, des phénomènes d'occlusion peuvent se produire : des organes peuvent se masquer en partie l'un l'autre (ex. Du foie). Par ailleurs, deux objets qui se jouxtent peuvent posséder des textures intrinsèques homogènes si bien qu'il est difficile d'identifier clairement l'interface entre ces deux objets. La définition classique d'un contour qui est caractérisé comme étant le lieu des points connexes présentant une forte transition de luminosité ne s'applique donc plus. Enfin, dans certains contextes d'étude, comme en géophysique, on peut disposer en plus des données d'imagerie, de données géométriques à intégrer au processus de segmentation. Pour pallier ces difficultés, nous avons développé des modèles de segmentation intégrant des contraintes géométriques et satisfaisant les critères classiques de détection avec en particulier la régularité sur le contour que cela implique. Deux méthodes ont été développées. Dans la première (qui permet d'établir un problème d'interpolation), on s'attache à définir un problème de minimisation de fonctionnelle sur un espace de Hilbert. L'introduction des contraintes géométriques conduit à résoudre ce problème sur un sous-espace vectoriel fermé d'un espace de Hilbert. L'utilisation des multiplicateurs de Lagrange nous permet d'établir la formulation variationnelle du problème qui est ensuite discrétisé à l'aide d'une méthode différences finies pour la discrétisation temporelle et via une méthode e��léments finis pour la discrétisation spatiale. Des applications numériques viennent se greffer sur cette première partie. Un second modèle a été élaboré et s'appuie sur la recherche d'une courbe géodésique dans un espace de Riemann dont la métrique est liée à la fois au contenu de l'image et aux contraintes géométriques. Il s'agit ici d'un problème d'approximation et non plus d'interpolation. Un problème parabolique avec conditions au bord de type Neumann homogènes est établi. L'existence et l'unicité de la solution au sens de la viscosité est démontrée. La discrétisation est réalisée via un schéma AOS qui présente l'intérêt d'être inconditionnellement stable. Des applications sur des données réelles attestent de la bonne efficacité de l'algorithme.
APA, Harvard, Vancouver, ISO, and other styles
15

Vila, Jean. "Influence du protocole d'établissement des contraintes thermodynamiques sur les performances d'un réacteur solide-gaz de pompes à chaleur chimiques." Perpignan, 1991. http://www.theses.fr/1991PERP0108.

Full text
Abstract:
Cette etude porte sur l'amelioration des performances d'un reacteur solide/gaz soumis a differentes contraintes thermodynamiques et pour plusieurs protocoles de fonctionnement. L'acquisition, en cours de reaction, des profils de temperature, pression et avancement a mis en evidence l'importance des transferts thermiques dans le milieu poreux reactif. Ces experiences montrent par ailleurs l'augmentation des puissances avec l'accroissement de l'ecart a l'equilibre en temperature ainsi que la preeminence du protocole ferme sur le protocole ouvert dans cet objectif de puissance. A partir de la resolution numerique de l'equation de la chaleur, une modelisation a ete realisee. Elle permet l'identification des parametres thermiques du melange reactif sel-liant tels que les conductivites effectives et apparentes aux differentes compositions ainsi que du coefficient d'echange melange/paroi
APA, Harvard, Vancouver, ISO, and other styles
16

Agha, Abdel Kader. "Régression et analyse canonique sous contraintes linéaires, algorithmes et applications." Paris 9, 1991. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1991PA090016.

Full text
Abstract:
La régression qualitative est mise en oeuvre selon deux approches distinctes: optimisation d'un critère au sens des moindres écarts quadratiques (moindres carres) ou des moindres écarts absolus (moindres écarts). Elle a suscite ces dernières années de nombreux travaux car, que ce soit en analyse multicritère ou en analyse des mesures conjointes, ses méthodes trouvent un vaste champ d'application. En nous situant dans une approche moindres carres, nous considérons le problème général comme une analyse canonique sous contraintes, requerrant lors de sa mise en oeuvre, la détermination de la projection orthogonale d'un vecteur sur un polyèdre convexe. Ce dernier problème rentre dans le cadre de la régression multiple sous contraintes sur les coefficients et permet, en outre d'apporter une réponse a la question de la protection de la régression, rencontrée lors du traitement de données en économie, géologie, physique, etc. . . Notre étude nous a amené à définir la notion d'approche de type adopt. Notion essentielle et féconde, elle est a la base des algorithmes mccb et acce que nous proposons et qui résolvent les problèmes des contraintes, respectivement de bornes en régression et de positivité des facteurs en analyse canonique. L'application de la régression qualitative en analyse multicritère est abordée dans le problème de la désagrégation de la préférence globale. Nous y effectuons une étude comparative des approches moindres carres et moindres écarts. Le programme informatique régals que nous avons mis au point, a permis le traitement des exemples qui illustrent les méthodes étudiées tout au long du document
APA, Harvard, Vancouver, ISO, and other styles
17

Dimassi, Jamil. "Une méthode multi-démarches pour la conception des applications de e-commerce." Paris 1, 2004. http://www.theses.fr/2004PA010010.

Full text
Abstract:
La thèse s'inscrit dans le domaine de l'ingénierie des méthodes des systèmes d'information et plus particulièrement dans le contexte des systèmes d'information fortement basés sur le commerce électronique (e-commerce). Dans la situation actuelle, le monde industriel offre les technologies et les plate-formes nécessaires aux entreprises pour implémenter des applications de e-commerce. Ce fait résout le problème technologique mais n"aide en aucun cas les concepteurs à concevoir des applications de commerce électronique qui répondent aux besoins des décideurs et utilisateurs de ces applications. Cette thèse présente et décrit l'élaboration d'une méthode d'ingénierie pour les applications de commerce électronique appelée e-CDM (e-Commerce Design Method). Cette méthode couvre aussi bien le processus de conception mais aussi une partie du développement des applications de e-commerce. E-CDM s'organise en deux étapes. Dans la première, il s'agit de construire le modèle de business électronique. La seconde étape concerne la construction de l'application relative à ce modèle. E-CDM est une méthode multi-démarches qui assiste le concepteur par des directives de guidage et leur fourni de la connaissance générique et expérimentale obtenue par capitalisation de nombreuses applications de commerce électronique déjà développées sous la forme de patrons.
APA, Harvard, Vancouver, ISO, and other styles
18

Tschumperlé, David. "Régularisation d'Images Multivaluées par EDP et Applications." Phd thesis, Université de Nice Sophia-Antipolis, 2002. http://tel.archives-ouvertes.fr/tel-00002396.

Full text
Abstract:
Nous nous intéressons aux approches par EDP pour la régularisation
d'images multivaluées, et leurs applications à une large classe de
problèmes d'intérêts. L'étude et la comparaison des méthodes
existantes nous permet à la fois de proposer un cadre mathématique
commun mieux adapté aux interprétations géométriques locales de
ces EDP, mais aussi de concevoir des schémas numériques efficaces
pour leur mise en oeuvre.
Nous développons de cette façon une nouvelle approche de régularisation multivaluée vérifiant certaines propriétés géométriques locales importantes, qui peut être utilisée dans de nombreuses applications différentes. Nous abordons ensuite le problème lié à la régularisation de données multivaluées
contraintes. Un formalisme variationel est proposé afin de traiter
dans un cadre unifié, des données de direction comme les champs de
vecteurs unitaires, de matrices de rotation, de tenseurs de diffusion etc.
Les solutions apportées sont analysées et utilisées avec succès pour résoudre de nombreux problèmes, notamment la régularisation et l'interpolation d'images couleurs, la visualisation de flots, la régularisation de mouvements rigides estimés à partir de
séquences vidéos, et l'aide à la reconstruction de réseaux cohérents de fibres dans la matière blanche du cerveau, à partir de la régularisation d'images d'IRM de diffusion.
APA, Harvard, Vancouver, ISO, and other styles
19

Gallien, Benjamin. "Contraintes thermomécaniques et dislocations dans les lingots de silicium pour applications photovoltaïques." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENI027/document.

Full text
Abstract:
Cette thèse, financée par le laboratoire SIMaP-EPM à Grenoble et l'INES à Chambéry, porte sur l'effet des contraintes thermomécaniques sur la qualité cristalline lors de l'élaboration de lingots de silicium pour applications photovoltaïques. Ainsi, ce travail commence par exposer comment l'industrie photovoltaïque construit les panneaux solaires et l'impact des dislocations, défauts issus des contraintes, sur leur rendement. Une revue bibliographique est également faite afin de présenter les modèles physiques et numériques traitant des dislocations dans le silicium, de leur mouvement et de leur multiplication. Différentes techniques de caractérisation de la densité de dislocations sont également décrites dans la première partie de ce travail.Dans le second chapitre du manuscrit, une étude comparative de différentes méthodes de caractérisation rapide est réalisée afin de montrer leurs forces et leurs faiblesses. Pour cela, un échantillon sert de référence pour la comparaison. Celui-ci a l'avantage d'être large, de ne pas être perturbé par des joints de grains et d'avoir des zones de forte et de faible densité de dislocations. La première technique de caractérisation étudiée dans ce manuscrit est la « méthode précise » consistant à dénombrer manuellement les dislocations à la surface de l'échantillon afin d'avoir une caractérisation fine de la densité de dislocations. Ensuite, la « méthode INES » utilise un traitement informatique d'images prise avec un microscope électronique à balayage afin de compter les dislocations. La « méthode Ganapati » relie les niveaux de gris d'une image de l'échantillon prise avec un scanner et la densité de dislocations. Enfin, la « méthode PVScan » utilisant l'appareil du même nom et qui se sert de la diffusion d'un faisceau laser à la surface de l'échantillon afin de réaliser la caractérisation. Cette étude comparative montre quelles sont les applications privilégiées pour chaque technique et surtout quels questions il est nécessaire de se poser avant de réaliser une caractérisation.La troisième partie de ce travail est dévolue à la mise en place de deux simulations numériques utilisant le code commercial Comsol afin de prédire la densité de dislocations dans un lingot de silicium à la fin de son élaboration. Pour cela, le modèle d'Alexander et Haasen, décrivant l'évolution de la densité de dislocations et de la relaxation plastique, est implémenté au logiciel et couplé avec le calcul des contraintes thermomécaniques. Le premier modèle, nommé « évolution continue », traite le lingot dans son ensemble, partie solide et liquide, et fait évoluer la température de façon continue durant la résolution. Dans le second modèle, nommée « pas à pas », seule la partie solide du lingot est prise en compte en modifiant la géométrie et la température à chaque pas de temps. Ces deux modèles sont comparés avec des simulations numériques réalisées par des équipes japonaise et norvégienne et le premier modèle est également comparé avec la caractérisation d'un échantillon. Ainsi, cette partie montre la pertinence de l'utilisation d'un code commercial pour l'estimation de la densité de dislocation dans un lingot à la fin de l'élaboration, de par sa simplicité d'utilisation et son adaptabilité à différentes géométries de fours.Dans un dernier chapitre, le problème de l'attachement entre le lingot et le creuset lors de la cristallisation est étudié car il est à l'origine de fortes contraintes et donc de dislocations dans le cristal. Ce problème est également traité par simulation numérique en utilisant le logiciel Comsol. Pour cela, un modèle physique est défini : l'intégrale J est utilisé pour évaluer l'énergie élastique exercée sur l'attachement et cette valeur est ensuite comparée à l'énergie d'adhésion entre le creuset et le lingot. Ce model est implémenté au logiciel et les résultats sont comparés avec une expérience réalisée au cours d'une thèse précédente (...)
SIMaP-EPM laboratory of Grenoble and INES institute of Chambery have both financed this thesis which investigates the effect of thermo-mechanical stresses on the crystal quality during production of silicon ingots for photovoltaic applications. This work begins by showing how photovoltaic industry makes solar panels and the influence of dislocations (defects induced by stresses) on the conversion efficiency. Bibliographic review is also performed in order to describe physical and numerical models of dislocation motion and their multiplication in silicon. Several characterization methods of the dislocation density at the surface of a sample are also presented in the first part of this work.In the second part of this manuscript, comparative study of different quick characterization methods is done in order to show their strength and weaknesses. Therefore, a sample, which is wide, not containing grain boundaries, and having areas of high and low dislocation density, is used as reference sample for the comparison. The first characterization technique studied in this work is the “accurate method” consisting in manually counting the dislocations at the surface of the sample in order to have a precise characterization of dislocation density. The “INES method” uses numerical treatment of SEM pictures to count dislocations. The “Ganapati method” links the grey scale of a sample picture taken with a scanner and the dislocation density. Finally, the “PVScan method”, using the eponymous device, uses diffusion of a laser beam on the surface of the sample for characterization. This comparative study underlines the best applications for each method and which questions should be thought about before performing dislocation characterization.The third part of this work is intended to build two numerical simulations using Comsol commercial software in order to predict dislocation density in silicon ingot at the end of its production. Therefore, Alexander and Haasen model, describing dislocation density and plastic relaxation rate, is implemented into the software and coupled with the thermo-mechanical stress calculation. In the first model, named “continuous evolution”, the entire ingot is taken into account (liquid and solid parts) and, during solving of this numerical simulation, temperature changes continuously. In the second model, named “step by step” only the solid part of the ingot is taken into account with new geometry and new temperature at each step. Both of these models are compared to numerical simulations performed by Japanese and Norwegian teams. Results of the first one are also compared to the experimental characterization of a sample. Thus, this part shows the pertinence of using commercial software for the prediction of dislocation density in a silicon ingot at the end of its production. Its use is simple and shows good adaptability to different furnace geometries and thermal fields.In the last part, ingot/crucible attachment is studied because it creates high stresses and then dislocations in the crystal. This problem is also solved by numerical simulation using Comsol software. Therefore, a physical model is created: the J-integral is used to estimate elastic energy at the attachment area and then this value is compared to ingot/crucible adhesion energy. This model is implemented into the software and the results are compared to an experiment realized during a previous thesis. This numerical simulation is also applied to two attachment configurations of a silicon ingot in order to study the attachment duration, the localization and the size of crystal area impacted by plasticity
APA, Harvard, Vancouver, ISO, and other styles
20

Gryson, Alexis. "Minimisation d'énergie sous contraintes : applications en algèbre linéaire et en contrôle linéaire." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00424947.

Full text
Abstract:
Le problème de Zolotarev pour des ensembles discrets apparaît pour décrire le taux de convergence de la méthode ADI, dans l'approximation de certaines fonctions matricielles ou encore pour quantifier le taux de décroissance des valeurs singulières de certaines matrices structurées. De plus, la réduction de modèle constitue un enjeu important en théorie du contrôle linéaire, et on peut prédire la qualité de l'approximation d'un système dynamique linéaire continu stationnaire de grande dimension donné grâce à la résolution approchée d'une équation de Sylvester. Après avoir prouvé l'existence d'un minimiseur pour le troisième problème de Zolotarev pour des ensembles discrets, on détermine dans cette thèse le comportement asymptotique faible de ce problème sous certaines hypothèses de régularité. Pour mener cette étude, on considère un problème de minimisation d'énergie sous contraintes pour des mesures signées en théorie du potentiel logarithmique. On discute également la précision de nos résultats asymptotiques pour des ensembles discrets généraux du plan complexe, et une formule intégrale explicite est établie dans le cas particulier de deux sous-ensembles discrets de l'axe réel symétriques par rapport à l'origine. L'impact de nos résultats théoriques pour l'analyse du taux de convergence de la méthode ADI appliquée pour la résolution approchée d'une équation de Lyapounov est estimé à l'aide de plusieurs exemples numériques après avoir exposé l'algorithme nous permettant d'obtenir les paramètres utilisés.
APA, Harvard, Vancouver, ISO, and other styles
21

Gryson, Alexis. "Minimisation d'énergie sous contraintes : applications en algèbre linéaire et en contrôle linéaire." Electronic Thesis or Diss., Lille 1, 2009. http://www.theses.fr/2009LIL10034.

Full text
Abstract:
Le problème de Zolotarev pour des ensembles discrets apparaît pour décrire le taux de convergence de la méthode ADI, dans l’approximation de certaines fonctions matricielles ou encore pour quantifier le taux de décroissance des valeurs singulières de certaines matrices structurées. De plus, la réduction de modèle constitue un enjeu important en théorie du contrôle linéaire, et on peut prédire la qualité de l’approximation d’un système dynamique linéaire continu stationnaire de grande dimension donné grâce à la résolution approchée d’une équation de Sylvester. Après avoir prouvé l’existence d’un minimiseur pour le troisième problème de Zolotarev pour des ensembles discrets, on détermine dans cette thèse le comportement asymptotique faible de ce problème sous certaines hypothèses de régularité. Pour mener cette étude, on considère un problème de minimisation d’énergie sous contraintes pour des mesures signées en théorie du potentiel logarithmique.On discute également la précision de nos résultats asymptotiques pour des ensembles discrets généraux du plan complexe, et une formule intégrale explicite est établie dans le cas particulier de deux sous-ensembles discrets de l’axe réel symétriques par rapport à l’origine. L’impact de nos résultats théoriques pour l’analyse du taux de convergence de la méthode ADI appliquée pour la résolution approchée d’une équation de Lyapounov est estimé à l’aide de plusieurs exemples numériques après avoir exposé l’algorithme nous permettant d’obtenir les paramètres utilisés. Mots clés : Théorie du potentiel
The Zolotarev problem with respect to discrete sets arises naturally to describe both the convergence rate of the ADI method, to compute approximation of various functions of matrices and to quantify the decreasing rate of singular values of structured matrices. Moreover, the theory of model reduction is a key problem in linear control theory, and the quality of the approximation of continuous stationnary linear dynamical system might be predicted with the computation of the solution of a Sylvester equation. Once proved the existence of a minimizer for the third Zolotarev problem with respect to discrete sets, we give the weak asymptotic behaviour of the Zolotarev quantity under some regularity hypothesis. In this purpose, we introduce a problem of energy minimization with constraints in logarithmic potential theory with respect to signed measures. We discuss the accuracy of our results for general discrete sets in the complex plane, and we prove an explicit integral formula in the particular case of two discret subsets of the real axis symmetric with respect to the imaginary axis. Then, the impact of our theoretical results concerning the analysis of the convergence rate of the ADI method applied to solve a Sylvester equation is estimated with various numerical examples after the description of the algorithm which we used to compute the parameters
APA, Harvard, Vancouver, ISO, and other styles
22

STEFFAN, LAURENT. "Conception et specification de protocoles de communication pour applications temps reel." Nantes, 1988. http://www.theses.fr/1988NANT2046.

Full text
Abstract:
Le but de cette these est d'etudier des protocoles de communication adaptes au temps reel. Elle comprend donc une introduction aux systemes temps reel, dans l'optique des concepteurs de protocoles de communication, temps reel. Puis les criteres de choix de protocoles (en particulier fiabilite et efficacite) qui ont ete retenus seront explicites, suivis d'une classification des protocoles generaux les plus repandus avec les avantages et les defauts qu'ils presentaient pour nous. Le troisieme chapitre veut faire le point sur l'etat de la recherche en matiere de protocoles de communication specifiques au temps reel, en clarifiant les controverses qui ont actuellement cours dans ce domaine: determinisme, fiabilite, efficacite. Enfin, les deux derniers chapitres presentent les protocoles concus dans le cadre de l'equipe temps reel, sous forme de specifications en estelle et en reseaux de nutt: ces protocoles sont respectivement un protocole d'acces fiable a priorites (deterministe) et un protocole de diffusion fiable utilisable pour la reconfiguration
APA, Harvard, Vancouver, ISO, and other styles
23

Lehoux, Vassilissa. "Théorie et applications en ordonnancement : contraintes de ressources et tâches agrégées en catégories." Phd thesis, Université de Grenoble, 2007. http://tel.archives-ouvertes.fr/tel-00997319.

Full text
Abstract:
Le thème de ce mémoire est l'ordonnancement dans les ateliers de production. L'objectif est d'étudier différents modèles classiques en analysant les liens et différences entre ces modèles et les problèmes pratiques associés. Les méthodes utilisées sont l'analyse de problèmes de nos partenaires industriels, l'étude de la complexité des problèmes ou de la structure des solutions et la proposition de méthodes de résolution exactes ou approchées. Le premier axe de cette thèse est l'étude de problèmes d'ordonnancement avec contraintes de ressources d'entrée/sortie. Les environnements considérés sont les flowshops robotisés et le nouveau modèle d'indisponibilité des opérateurs. Le second axe abordé concerne l'ordonnancement avec high multiplicity où les pièces sont agrégées en catégories. La description complète d'un ordonnancement (c'est-à-dire les instants de fabrication des tâches) n'est que pseudo-polynomiale de la taille de l'instance.
APA, Harvard, Vancouver, ISO, and other styles
24

Fowler, Julian. "Extension réactive de la programmation logique avec contraintes et applications en optimisation combinatoire." Paris 11, 1995. http://www.theses.fr/1995PA112150.

Full text
Abstract:
Ce travail propose un schéma de programmation logique avec contraintes pour les systèmes réactifs. On expose d'abord les hypothèses prises pour l'extension proposée. Primo l'interaction de l'environnement sur le système est décrit par quatre manipulations de requête. Deuxio un modèle d'exécution basé sur la réutilisation des dérivations est proposé. Ce modèle est présenté (formellement comme une combinaison d'opérations de base sur des dérivations (ces opérations étant définies préalablement). Ensuite la correction et la complétude du modèle sont établies. Une implantation d'une version simplifiée est décrite. Une comparaison est effectuée avec quelques autres modèles d'exécution réactifs avant de montrer la puissance du schéma pour l'optimisation d'une façon générale. Finalement l'implantation est validée sur deux applications: un systèmes d'aide à la décision pour un problème d'optimisation multicritères, et un problème d'ordonnancement des vols à l'arrivée dans un environnement simulé
This work presents a constraint logic programming scheme for reactive systems. The hypotheses taken for the proposed extension are presented. Firstly all interaction of the environnement on the system is described by four goal transformations. Secondly a operational model based on the re-use of derivations is proposed. This model is presented formally a combination of basic derivation operations, these operations are prealably defined. The correction and completeness of the model is then proven. An implementation of a simplified version of the model is then described. A comparison is made with some other models for reactive execution before a powerful general scheme for optimisation is exposed. Finally the implementation is evaluated on two applications: a decision support system for a multi-criteria optimisation problem, and a problem of aircraft landing scheduling in a simulated environnement
APA, Harvard, Vancouver, ISO, and other styles
25

Marc, Frédéric. "Planification multi-agent sous contraintes dans un contexte dynamique : applications aux simulations aériennes." Paris 6, 2005. http://www.theses.fr/2005PA066101.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Prost, Rémy. "Contribution à l'élaboration d'algorithmes itératifs discrets super-résolvants de déconvolution avec contraintes applications /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37609067t.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Al-Ghadi, Musab Qassem. "Approches de tatouage pour l'authentification de l'image dans des applications à contraintes temporelles." Thesis, Brest, 2018. http://www.theses.fr/2018BRES0029/document.

Full text
Abstract:
Dans de nombreuses applications dont celles du domaine médical et de l’embarqué, l’authentification des images nécessite de prendre en compte les contraintes temporelles, le taux d’insertion, la qualité visuelle et la robustesse contre différentes attaques. Le tatouage a été proposé comme approche complémentaire à la cryptographie pour l’amélioration de la sécurité des images. Il peut être effectué soit dans le domaine spatial sur les pixels de l’image, soit dans le domaine fréquentiel sur les coefficients de sa transformée. Dans cette thèse, le but est de proposer des approches de tatouage permettant d’assurer un niveau élevé d’imperceptibilité et de robustesse, tout en maintenant un niveau de complexité répondant aux exigences d’applications soumises à des contraintes temporelles. La démarche adoptée a consisté, d’une part, à s’appuyer sur les bénéfices du zéro-tatouage (zero-watermarking) qui ne change pas la qualité perceptuelle de l’image et qui a une faible complexité computationnelle, et d’autre part, à analyser les caractéristiques visuelles de l’image afin de détecter les zones les plus adaptées pour insérer la marque avec un bon niveau d’imperceptibilité et une bonne robustesse. Une approche de zéro-tatouage a ainsi été proposée dans cette thèse, ainsi que plusieurs approches de tatouage basées sur l’analyse de caractéristiques visuelles de l’image et sur des techniques d’intelligence artificielles ou connexes.Les solutions proposées ont été analysées du point de vue de l’imperceptibilité, de la robustesse et de la performance temporelle et les résultats d’analyses ont montré qu’elles apportent des améliorations significatives par rapport aux approches existantes
In numerous applications such as those of medical and embedded domains, images authentication requires taking into account time constraints, embedding rate, perceptual quality and robustness against various attacks. Watermarking has been proposed as a complementary approach to cryptography, for improving the security of digital images. Watermarking can be applied either in the spatial domain on the pixels of the image, or in the frequency domain on the coefficient of its transform.In this thesis, the goal is to propose image watermarking approaches that make it possible to ensure high level of imperceptibility and robustness while maintaining a level of computational complexity fitting the requirements of time-constrained applications. The method adopted in this thesis has consisted, on the one hand, to rely on the benefit of zero-watermarking that does not degrade the perceptual quality of image data and has low computational complexity, and on the other hand, to analyze visual characteristics of digital image (characteristics that are correlated to the Human Visual System - HVS) in order to identify the locations the most adapted for embedding the watermark with good level of imperceptibility and robustness. A zero-watermarking has therefore been proposed in this thesis, as well as several watermarking approaches based on the analysis of visual characteristics of image and on artificial intelligence or related techniques. The proposed solutions have been analyzed with respect to imperceptibility, robustness and temporal performance and the results have shown significant improvements in comparison to existing approaches
APA, Harvard, Vancouver, ISO, and other styles
28

Tchvagha, Zeine Ahmed. "Contribution à l’optimisation multi-objectifs sous contraintes : applications à la mécanique des structures." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR13/document.

Full text
Abstract:
L’objectif de cette thèse est le développement de méthodes d’optimisation multi-objectif pour la résolution de problèmes de conception des structures mécaniques. En effet, la plupart des problèmes réels dans le domaine de la mécanique des structures ont plusieurs objectifs qui sont souvent antagonistes. Il s’agit, par exemple, de concevoir des structures en optimisant leurs poids, leurs tailles, et leurs coûts de production. Le but des méthodes d’optimisation multi-objectif est la recherche des solutions de compromis entre les objectifs étant donné l’impossibilité de satisfaire tout simultanément. Les métaheuristiques sont des méthodes d’optimisation capables de résoudre les problèmes d’optimisation multi-objective en un temps de calcul raisonnable sans garantie de l’optimalité de (s) solution (s). Au cours des dernières années, ces algorithmes ont été appliqués avec succès pour résoudre le problème des mécaniques des structures. Dans cette thèse deux métaheuristiques ont été développées pour la résolution des problèmes d’optimisation multi-objectif en général et de conception de structures mécaniques en particulier. Le premier algorithme baptisé MOBSA utilise les opérateurs de croisement et de mutation de l’algorithme BSA. Le deuxième algorithme nommé NNIA+X est une hybridation d’un algorithme immunitaire et de trois croisements inspirés de l’opérateur de croisement original de l’algorithme BSA. Pour évaluer l’efficacité et l’efficience de ces deux algorithmes, des tests sur quelques problèmes dans littérature ont été réalisés avec une comparaison avec des algorithmes bien connus dans le domaine de l’optimisation multi-objectif. Les résultats de comparaison en utilisant des métriques très utilisées dans la littérature ont démontré que ces deux algorithmes peuvent concurrencer leurs prédécesseurs
The objective of this thesis is the development of multi-objective optimization methods for solving mechanical design problems. Indeed, most of the real problems in the field of mechanical structures have several objectives that are often antagonistic. For example, it is about designing structures by optimizing their weight, their size, and their production costs. The goal of multi-objective optimization methods is the search for compromise solutions between objectives given the impossibility to satisfy all simultaneously. Metaheuristics are optimization methods capable of solving multi-objective optimization problems in a reasonable calculation time without guaranteeing the optimality of the solution (s). In recent years, these algorithms have been successfully applied to solve the problem of structural mechanics. In this thesis, two metaheuristics have been developed for the resolution of multi-objective optimization problems in general and of mechanical structures design in particular. The first algorithm called MOBSA used the crossover and mutation operators of the BSA algorithm. The second one named NNIA+X is a hybridization of an immune algorithm and three crossover inspired by the original crossover operator of the BSA algorithm. To evaluate the effectiveness and efficiency of these two algorithms, tests on some problems in literature have been made with a comparison with algorithms well known in the field of multi-objective optimization. The comparison results using metrics widely used in the literature have shown that our two algorithms can compete with their predecessors
APA, Harvard, Vancouver, ISO, and other styles
29

Lebacque, Lehoux Vassilissa. "Théories et applications en ordonnancement : contraintes de ressources et tâches agrégées en catégories." Grenoble 1, 2007. http://www.theses.fr/2007GRE10128.

Full text
Abstract:
Le, thème de ce mémoire est l'ordonnancement dans les ateliers de production. L'objectif est d'étudier différents modèles classiques en analysant les liens et différences entre ces modèles et les problèmes pratiques associés. Les méthodes utilisées sont l'analyse de problèmes de nos partenaires industriels, l'étude de la complexité des problèmes ou de la structure des solutions et la proposition de méthodes de résolution exactes ou approchées. Le premier axe de cette thèse est l'étude de problèmes d'ordonnancement avec contraintes de ressources d'entrée/sortie. Les environnements considérés sont les flowshops robotisés et le nouveau modèle d'indisponibilité des opérateurs. Le second axe abordé concerne l'ordonnancement avec high multiplicity où les pièces sont agrégées en catégories. La description complète d'un ordonnancement (c'est-à-dire les instants de fabrication des tâches) n'est que pseudo-polynomiale de la taille de l'instance
This thesis deals with scheduling problems in manufacturing cells. It aims at studying different classical models, analyzing links and differences between those models and the practical associated problems. The approach is to analyze the problems of our indus trial partners, to study the complexity of the problems or the structure of their solution, and to propose exact or approached solution methods. The first axis of this thesis is the study of scheduling problems with inlout resource constraints. The problems considered are robotic flowshops and the new concept of operator non-availability. The second axis concerns scheduling problems with high multiplicity, where parts are aggregated into categories. Complete description of a schedule (i. E. The starting times of the operations) is then only pseudo-polynomial of the size of the input
APA, Harvard, Vancouver, ISO, and other styles
30

Cherkaoui, Mohammed. "Comportement thermoélastique global des composites à renforts enrobés : modélisation micromécanique et applications." Metz, 1995. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1995/Cherkaoui.Mohammed.SMZ9512.pdf.

Full text
Abstract:
Dans de nombreuses situations, une couche mince située a l'interface renfort-matrice est présenté dans de nombreux matériaux composites. Elle résulte d’opérations d'ensimage ou de réactions chimiques ou physiques conduisant à la formation de nouveaux composes. La présence de cette interphase interfaciale (souvent appelée enrobage) modifie profondément les mécanismes de transfert des charges entre les renforts et la matrice et affecte à la fois les propriétés effectives du composite et les concentrations des contraintes. L'objectif du travail est d'établir un modèle micromécanique permettant de prendre en compte les propriétés de l'interphase au niveau de la prévision du comportement thermoélastique effectif de composites anisotropes. L'étude consiste en une nouvelle approche du problème de renforts enrobes de forme ellipsoïdale et de matériaux anisotropes basée sur une démarche micromécanique utilisant l'équation intégrale et les opérateurs interfaciaux de la mécanique des solides. Cette étude a clairement montre l'effet de l'interphase sur le comportement thermomécanique effectif du composite, ainsi que sur la répartition locale des contraintes. L'application du modèle au cas de matériaux réels, a donné des résultats en bon accord avec des mesures expérimentales et des résultats obtenus à partir d'autres approches
In many cases, a thin layer of some other elastic phase between an inclusion and the matrix is observed. This interphase may represent a coating of an inclusion in the composite materials, or is created during manufacturing by chemical reaction between the inclusion and the matrix. The presence of this thin layer modifies deeply the load transfers between the matrix and reinforcing fibers. Therefore it has an influence on local fields as well as on the effective properties of composites. The aim of this work is to study the case of coated ellipsoidal inclusions and anisotropic materials. It is based both on integral equation and interfacial operators. We also extend the studies to more general case when the topology of a coated inclusion can be described by two nonhomothetic concentric ellispoidal inclusions. Compared with experimental data and numerical results, the present approach provides reasonably accurate predictions for the effective moduli of composites with thinly coated inclusions
APA, Harvard, Vancouver, ISO, and other styles
31

Exposito, Garcia Ernesto José. "Spécification et mise en oeuvre d'un protocole de transport orienté Qualité de Service pour les applications multimédias." Toulouse, INPT, 2003. http://www.theses.fr/2003INPT028H.

Full text
Abstract:
De nos jours, des applications multimédia présentant de fortes contraintes temporelles, de bande passante et de synchronisation multimédia ont été conçues. Ces applications sont aussi capables de tolérer un service de communication imparfait (c'est-à-dire un service partiellement ordonné et/ou partiellement fiable). Cependant, les services de communication actuellement disponibles au niveau transport ou réseaux ne satisfont pas entièrement ces besoins complexes de Qualité de Service (QdS). Cette thèse propose la conception d'un protocole de transport de nouvelle génération orienté QdS : QoSTP (Quality of Service oriented Transport Protocol). Ce protocole a été conçu afin de fournir un ensemble important de mécanismes de transport répondant précisément aux exigences applicatives, tout en utilisant les ressources et les services réseaux disponibles. En outre, QoSTP a été spécifié dans le cadre d'un contexte standard de QdS capable de fournir un espace sémantique extensible et une architecture composable. Ce principe de modélisation facilite l'extension et la spécialisation du protocole pour répondre à un grand nombre de besoins applicatifs tout en tenant compte de l'ensemble des services offerts par le système de communication. La conception de QoSTP a suivi une méthodologie spécialisée basée sur le procédé unifié de développement ou Unified Development Process et sur l'utilisation des langages UML et SDL. Cette méthodologie propose trois étapes de modélisation : la définition d'un modèle global, la définition technique du service transport et la spécification comportementale du protocole. Des scénarios spécifiques de simulation ont été établis afin de valider la spécification. Des expériences mettant en œuvre des applications multimédia standards ont permis d'évaluer les performances de ce protocole. Une étude proposant une méthodologie de déploiement basée sur des nœuds programmables dans le cadre d'architectures multimédia distribuées a aussi été réalisée.
APA, Harvard, Vancouver, ISO, and other styles
32

NGUYEN, VU THIENG AN. "Etude d'un protocole de communication utilisant l'acces multiple par repartition de codes. Applications aux liaisons intra-vehicule." Rennes, INSA, 1997. http://www.theses.fr/1997ISAR0013.

Full text
Abstract:
Cette these presente l'etude d'un protocole de communication pour un reseau embarque appliquant le multiplexage par repartition de codes. A l'heure actuelle, les vehicules comportent de plus en plus de circuits electroniques, dont la finalite est d'ameliorer le comportement general de ces vehicules, tant sur le plan conduite que sur le plan confort des passagers. L'implantation de ces circuits entrainera l'existence d'un nombre important de cables electriques, nombre qu'il est bon de reduire par application des concepts de reseau et de multiplexage. A cette fin, une technique de transmission par courants porteurs, utilisant la modulation par etalement de spectre en sequence directe, a ete proposee. Apres une mise en evidence des caracteristiques generales de la ligne d'alimentation d'une automobile, on montre que l'etalement de spectre permet de proteger les signaux contre les degradations provoquees par le canal. En outre, le multiplexage issu de cette technique peut etre exploite pour les besoins de l'automobile. Les performances theoriques d'un reseau cdma asynchrone sont donc presentees, en meme temps que les limites de son utilisation. L'etude de la couche protocolaire de niveau 2 aboutit a la definition de la trame de base du protocole cdma. Une plate-forme de test a ensuite ete realisee pour valider le protocole en bande de base, incluant differents cas de figures que l'on peut rencontrer en pratique. En particulier, la technique d'acquisition rapide de synchronisation code par integration double a ete testee dans le but de reduire le temps de reponse des systemes. La finalisation et l'implantation de ce protocole sur un reseau electrique automobile, utilisant les courants porteurs, peuvent alors etre envisagees, afin d'observer le comportement global du reseau cdma. D'autre part, il serait interessant de tester le protocole cdma sur des applications autres que celles de l'automobile, avec ou sans courants porteurs.
APA, Harvard, Vancouver, ISO, and other styles
33

Zhao, Ting. "Résolution de systèmes polynomiaux paramétriques par radicaux et ses applications géométriques." Paris 6, 2012. http://www.theses.fr/2012PA066131.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Adida, Yoan. "Une architecture adaptative pour la gestion des délais des applications multicast." Paris 6, 2003. http://www.theses.fr/2003PA066003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Amaro, da Cruz Mauro. "An enhanced multi-protocol middleware solution for Internet of things." Thesis, Mulhouse, 2021. https://www.learning-center.uha.fr/.

Full text
Abstract:
Dans l'Internet des objets (IoT), les données sont gérées et stockées par un logiciel appelé middleware (situé sur un serveur). L'évolution du concept IoT a conduit à la construction de nombreux intergiciels IoT, des logiciels qui jouent un rôle clé car ils prennent en charge la communication entre les appareils, les utilisateurs et les applications. Plusieurs aspects peuvent impacter les performances d'un middleware. Basée sur une revue approfondie de la littérature associée et sur la proposition d'un modèle de référence pour le middleware IoT, cette thèse propose un nouveau middleware IoT, appelé In.IoT, une solution middleware évolutive, sécurisée et innovante basée sur une revue approfondie du état de l'art et suivant l'architecture middleware de référence proposée dans le cadre de ce travail de recherche. In.IoT répond aux préoccupations middleware des solutions les plus populaires (sécurité, convivialité et performances) qui ont été évaluées, démontrées et validées tout au long de cette étude, et il est prêt et disponible à l'utilisation. Les recommandations et les exigences architecturales d'In.IoT sont détaillées et peuvent être reproduites par des solutions nouvelles et disponibles. Il prend en charge les protocoles de couche application les plus populaires (MQTT, CoAP et HTTP). Ses performances sont évaluées en comparaison avec les solutions les plus prometteuses disponibles dans la littérature et les résultats obtenus par la solution proposée sont extrêmement prometteurs. De plus, cette thèse étudie l'impact du langage de programmation sous-jacent sur les performances globales de la solution grâce à une étude d'évaluation des performances incluant Java, Python et Javascript, identifiant que globalement, Java s'avère être le choix le plus robuste pour le middleware IoT. Les appareils IoT communiquent avec le middleware via un protocole de couche application qui peut différer de ceux pris en charge par le middleware, en particulier lorsque l'on considère que les ménages auront divers appareils de différentes marques. La thèse offre une alternative pour de tels cas, en proposant une passerelle de couche application, appelée MiddleBridge. MiddleBridge traduit les messages CoAP, MQTT, DDS et Websockets en HTTP (HTTP est pris en charge par la plupart des intergiciels IoT). Avec MiddleBridge, les appareils peuvent envoyer un message plus petit à un intermédiaire (MiddleBridge), qui le restructure et le transmet à un middleware, réduisant ainsi le temps qu'un appareil passe à transmettre. Les solutions proposées ont été évaluées par rapport à d'autres solutions similaires disponibles dans la littérature, en tenant compte des métriques liées à la taille des paquets, aux temps de réponse, aux requêtes par seconde et au pourcentage d'erreur, démontrant leurs meilleurs résultats et leur énorme potentiel. En outre, l'étude a utilisé XGBoost (une technique d'apprentissage automatique) pour détecter l'occurrence d'attaques de réplication lorsqu'un attaquant obtient les informations d'identification de l'appareil, en l'utilisant pour générer de fausses données et perturber l'environnement IoT. Les résultats obtenus sont extrêmement prometteurs. Ainsi, il est conclu que l'approche proposée contribue à l'état de l'art des solutions middleware IoT
In Internet of Things (IoT), data is handled and stored by software known as middleware (located on a server). The evolution of the IoT concept led to the construction of many IoT middleware, software that plays a key role since it supports the communication among devices, users, and applications. Several aspects can impact the performance of a middleware. Based in a deep review of the related literature and in the proposal of a Reference Model for IoT middleware, this thesis proposes a new IoT middleware, called In.IoT, a scalable, secure, and innovative middleware solution based on a deep review of the state of the art and following the reference middleware architecture that was proposed along with this research work. In.IoT addresses the middleware concerns of the most popular solutions (security, usability, and performance) that were evaluated, demonstrated, and validated along this study, and it is ready and available for use. In.IoT architectural recommendations and requirements are detailed and can be replicated by new and available solutions. It supports the most popular application-layer protocols (MQTT, CoAP, and HTTP). Its performance is evaluated in comparison with the most promising solutions available in the literature and the results obtained by the proposed solution are extremely promising. Furthermore, this thesis studies the impact of the underlying programming language in the solution's overall performance through a performance evaluation study that included Java, Python, and Javascript, identifying that globally, Java demonstrates to be the most robust choice for IoT middleware. IoT devices communicate with the middleware through an application layer protocol that may differ from those supported by the middleware, especially when it is considered that households will have various devices from different brands. The thesis offers an alternative for such cases, proposing an application layer gateway, called MiddleBridge. MiddleBridge translates CoAP, MQTT, DDS, and Websockets messages into HTTP (HTTP is supported by most IoT middleware). With MiddleBridge, devices can send a smaller message to an intermediary (MiddleBridge), which restructures it and forwards it to a middleware, reducing the time that a device spends transmitting. The proposed solutions were evaluated in comparison with other similar solutions available in the literature, considering the metrics related to packet size, response times, requests per second, and error percentage, demonstrating their better results and tremendous potential. Furthermore, the study used XGBoost (a machine learning technique) to detect the occurrence of replication attacks where an attacker obtains device credentials, using it to generate false data and disturb the IoT environment. The obtained results are extremely promising. Thus, it is concluded that the proposed approach contributes towards the state of the art of IoT middleware solutions
APA, Harvard, Vancouver, ISO, and other styles
36

Herrero, Vinas Pau. "Résolution de contraintes réelles quantifiées en utilisant les intervalles modaux avec applications à l'automatique." Phd thesis, Université d'Angers, 2006. http://tel.archives-ouvertes.fr/tel-00331668.

Full text
Abstract:
Les contraintes réelles quantifiées (QRC) forment un formalisme mathématique utilisé pour modéliser un très grand nombre de problèmes physiques dans lesquels interviennent des systèmes d'équations non linéaires sur des variables réelles, certaines d'entre elles pouvant être quantifiées. Les QRCs apparaissent dans nombreux contextes comme, l'Automatique, le Génie Electrique, le Génie Mécanique, et la Biologie. La résolution de QRCs est un domaine de recherche très actif pour lequel deux approches radicalement différentes sont proposées: l'élimination symbolique de quantificateurs et les méthodes approximatives. Cependant, la résolution de problèmes de grandes dimensions et la résolution du cas général, restent encore des problèmes ouverts. Dans le but de contribuer à la résolution de QCRs, cette thèse propose une nouvelle méthodologie approximative basée sur l'Analyse par Intervalles Modaux (MIA), une théorie mathématique développée par des chercheurs de l'université de Barcelone et de l'université de Girone. Cette théorie permet de résoudre d'une façon élégante une grande classe de problèmes dans lesquels interviennent des quantificateurs logiques sur des variables réelles. Parallèlement, ce travail a comme but de promouvoir l'utilisation de l'Analyse par Intervalles Modaux pour résoudre des problèmes complexes, comme sont les QRCs. La théorie de MIA est relativement confidentielle du fait de sa complexité théorique relative et du fait d'une formulation mathématique peu usuelle. Cette thèse essaie de lever cette barrière en présentant la théorie d'une façon plus intuitive à travers des exemples et des analogies provenant de la théorie classique de l'analyse par intervalles. La méthodologie proposée a été implémentée informatiquement et validée à travers la résolution de nombreux problèmes de la littérature, et les résultats obtenus ont été comparés avec différentes techniques de l'état de l'art. Enfin, il a été montré que l'approche présentée apporte des améliorations en étendant la classe de QRCs qui peut être traité et en améliorant les temps de calcul pour quelques cas particuliers. Tous les algorithmes présentés dans ce travail sont basés sur un algorithme développé dans le cadre de cette thèse et appelé f* algorithme. Cet algorithme permet la réalisation de calculs par intervalles modaux de fa¸con très simple, ce qui aide à l'utilisation de la théorie de MIA et facilite sa diffusion. Dans le même but, un site Internet a été créé afin de permettre l'utilisation de la plupart des algorithmes présentés dans la thèse. Finalement, deux applications à l'Automatique sont présentées. La première application faite référence au problème de la détection de défauts dans des systèmes dynamiques, laquelle a été validée sur des systèmes réels. La deuxième application consiste en la réalisation d'un régulateur pour un bateau à voile. Ce dernier a été validé sur simulation.
APA, Harvard, Vancouver, ISO, and other styles
37

Tournoux, Pierre Ugo. "Un protocole de fiabilité basé sur un code à effacement "on-the-fly"." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00547003.

Full text
Abstract:
Le monde du protocole de transport a fortement évolué depuis la création de l'internet. On retrouve désormais une grande diversité de liens avec des caractéristiques hétérogènes en termes de débit, taux de pertes et délais. Plus récemment, le caractère ubiquitaire des périphériques sans fil a permis d'envisager un nouveau mode de transfert prenant en compte la mobilité des utilisateurs pour propager l'information dans le réseau. Ce paradigme de communication rompt définitivement avec les hypothèses de conceptions des protocoles de transport classique. Les applications qui utilisent l'internet ont également évolué. Les réseaux best effort sont maintenant utilisés pour transporter des flux à contrainte de délai tels que la voix sur IP et la vidéo conférence. Cependant, malgré ces changements importants, le principe de fiabilité utilisé n'a guère évolué et se base toujours sur des retransmissions. C'est dans ce contexte que s'inscrit cette thèse qui vise à fournir une brique de fiabilité novatrice pour le support de tout type d'application sur les réseaux best effort et les challenged neworks qui font de plus en plus partie du paysage de l'internet. A cette fin, nous proposons un mécanisme de codage dénommé Tetrys. Ce code est sans rendement et ses symboles de redondance sont générés à la volée. Il permet à la fois une fiabilité totale et un délai de reconstruction quasi-optimal. Après une étude détaillée de ses propriétés, nous illustrons la généricité de ce mécanisme. Nous verrons que ses caractéristiques mènent à des contributions aussi bien sur le transport de flux de vidéo-conférence que sur le support du streaming dans les DTN ou encore la fiabilisation des handovers. De manière plus prospective, cette thèse reconsidère les hypothèses initiales du contrôle de congestion. Tetrys est utilisé comme code optimal dans le cas de réseaux dit "anarchiques" (i.e. caractérisés par une absence totale de contrôle de congestion). Nous montrons que le concept de réseau anarchi que est une alternative viable au contrôle de congestion et qu'il le remplace mÆeme avantageusement.
APA, Harvard, Vancouver, ISO, and other styles
38

Preda, Stere. "Reliable context aware security policy deployment - applications to IPv6 environments." Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0145.

Full text
Abstract:
Les réseaux sont aujourd'hui en continue évolution dû aux nouvelles exigences et activités organisationnelles. En parallèle, la protection des ressources doit changer et toute cette gestion devient une tâche difficile pour l'administrateur sécurité. Dans cette thèse, nous adressons plusieurs aspects clés dans le domaine de la sécurité réseaux et proposons des solutions conséquentes : 1. Déploiement des politiques basé sur des modèles de contrôle d'accès. Les diverses données inutiles dans la spécification de la politique seront ainsi éliminées avant le déploiement automatique de la politique abstraite. Les tâches de l'administrateur sont considérablement simplifiées. 2. Développement formel des algorithmes de déploiement. Ces algorithmes doivent être formellement prouvés pour que l'administrateur ait confiance dans le processus de déploiement. 3. La gestion des exigences contextuelles et des fonctionnalités de sécurité insuffisantes. Le modèle de contrôle d'accès doit être assez robuste afin de couvrir les exigences contextuelles. Le problème reste au niveau des composants de sécurité qui ne sont pas toujours capables d'interpréter ces contextes. 4. Nouveaux mécanismes de sécurité IPv6. Nous avons adressé la conception d'un nouveau mécanisme de sécurité IPv6 qui devrait interpréter certains contextes spécifique aux réseaux IPv6. Nos travaux de recherche constituent une approche cohérente et apportent des contributions claires pour garantir une gestion fiable des politiques de sécurité réseaux
Organization networks are continuously growing so as to sustain the newly created organizational requirements and activities. In parallel, concerns for assets protection are also increasing and security management becomes an ever-changing task for the security officer. In this dissertation we address several key aspects of network security management providing solutions for each aspect:1. Policy deployment based on access control models. Invalid or unusable data of the security policy will have been removed before deploying the abstract policy through a set of algorithms; in this manner, the security officer’s tasks are greatly simplified. 2. Formal algorithm development. The correctness of the algorithms involved in the policy deployment process is of undeniable importance. These algorithms should be proved so that the security officers trust the automatic policy deployment process. 3. Management of contextual requirements and of limited security functionalities. The access control model should be robust enough to cover contextual requirements. The issue is that the security devices are not always able to interpret the contexts. And sometimes, there are security requirements which cannot be deployed given the existing limited security functionalities in the IS. 4. New IPv6 security mechanisms. We have naturally come to consider the design of new IPv6 security mechanisms when dealing with the lack of functionalities in an information system. Our research outlines a comprehensive approach to deploy access control security policies. Actually, it constitutes a step further towards an automatic and reliable management of network security
APA, Harvard, Vancouver, ISO, and other styles
39

Feltin, Eric. "Hétéro-épitaxie de Nitrure de Gallium sur substrat de silicium (111) et applications." Nice, 2003. http://www.theses.fr/2003NICE4075.

Full text
Abstract:
Le travail présenté dans ce mémoire concerne l’hétéro-épitaxie de nitrure de galium sur substrat de silicium (111) par Epitaxie en Phase Vapeur d’OrganoMatalliques pour les applications optoélectroniques associées aux nitrures d’éléments III. Les fortes contraintes biaxiales en tension, issues de l’hétéro-épitaxie sur silicium, mènent à la fissuration des couches de GaN. Les diverses études (expérimentales et théoriques) des contraintes intrinsèque et thermique présentes dans GaN apportent une meilleure compréhension de la croissance de GaN sur Si (111), mais permettent aussi de mieux cerner les limitations liées à la fissuration de GaN sur ce nouveau substrat. L’utilisation de super-réseaux AIN/GaN rend possible le contrôle des contraintes dans GaN et permet d’augmenter significativement l’épaisseur de GaN déposée sur silicium sans fissures. Les performances des démonstrateurs de diodes électroluminescentes InGaN réalisés sur Si (111) permettent d’évaluer les possibilités offertes par les nitrures d’éléments III sur silicium pour la fabrication de composants électroniques u optoélectroniques. La croissance tridimensionnelle de GaN et la technique d’épitaxie par surcroissance latérale (ELO) ont été mises en œuvre sur Si (111) pour améliorer les propriétés optiques et cristalline du matériau épitaxié. Pour la première fois, la densité de dislocations dans GaN sur silicium a été réduite à 5 x 107 cm2 pour des couches de GaN ELO complètement coalescées. Les contraintes présentes dans les couches ELO et les couches fissurées sont correctement décrites par les modélisations concernant la réduction de contrainte à partir des surfaces libres. En accord avec ces modélisations concernant la réduction des dimensions latérales des couches, grâce à l’épitaxie sélective, diminue fortement les contraintes dans les couches épitaxiées et permet d’éviter les fissures
The work presented in this manuscript deals with the epitaxial growth of gallium nitride on silicon (111) substrate by Metal-Organic Vapor Phase Epitaxy for the optoelectronic applications of III-nitride semiconductors. Cracking of the GaN layers is a consequence of th tensile biaxial stress arising from the epitaxy on silicon. Experimental and theoretical analysis of the thermal and intrinsic stresses give a nes possibilities for the growth of GaN on S1 (111) and a better understanding of the problem of cracks in GaN layers. AIN/GaN superlattices have been used for stress engineering in GaN layers deposited on silicon and to strongly increase the GaN thickness deposited on Si (111) without any crack. InGan on silicon for electronic and optoelectronic applications. Three-dimensional growth process and Epitaxial Lateral Overgrowth (ELO) process have been developed in order to increase the optical and crystalline properties of GaN layers on silicon. For the first time, a decrease of the dislocations density of more than two orders of magnitude has been achieved in fully coalesced layers. The stresses present in ELO layers and cracked layers were explained by theoretical models for the reduction of stress from free surfaces. In agreement with these models, the stress present in GaN on silicon can be relieved and the formation of crack can be avoided by the decrease of the lateral dimensions of the layers
APA, Harvard, Vancouver, ISO, and other styles
40

Vali, Ali. "Etude des contraintes résiduelles en usinage assisté par laser." Châtenay-Malabry, Ecole centrale de Paris, 1996. http://www.theses.fr/1996ECAP0466.

Full text
Abstract:
L'usinage assisté par laser (U. A. L. ) est un procédé qui permet d'améliorer l'usinage de matériaux difficile à usiner. Les essais réaliser en UAL montrent une diminution importante des efforts de coupe et une bonne amélioration d'état de surface. L’élaboration de surfaces mécaniques engendre des contraintes résiduelles superficielles. Une surface ayant une fonction mécanique, peut être caractérisée par un état lié aux caractéristiques de résistance mécanique des couches superficielles. Cette étude a pour but d'étudier le mécanisme d'usinage assisté par laser CO2 de l'acier XC42. Les deux phénomènes, transfert thermique dans la pièce et création des contraintes résiduelles sont présentes. Le mécanisme du transfert de chaleur lié à la superposition de l'action du faisceau laser et de la zone de cisaillement assimilée à une deuxième source en mouvement est étudié. Un modèle analytique de la répartition des contraintes résiduelles dans la pièce après l'usinage est présenté, après comparaison avec les résultats d'une simulation numérique. Les mesures des contraintes résiduelles ont été effectuées par la méthode de diffraction des rayons X, après l'enlèvement des couches successives de métal. La correction des contraintes résiduelles après l'enlèvement des couches est discuté. Dans l'état actuel l'usinage avec assistance laser provoque une réduction en valeur absolue des contraintes résiduelles avec un possible changement de type de ces contraintes. L’usinage assiste par laser mène à une réduction considérable des efforts de coupe pouvant atteindre 80% ou plus, une augmentation importante de la durée de vie de l'outil, une amélioration de l'état de surface et une modification de la répartition des contraintes résiduelles. Ces contraintes peuvent être choisies en fonction des conditions d'utilisation de la pièce à usiner. Ce qui implique un calcul de la puissance laser selon les conditions de coupe choisies permettant a la fois de réduire les efforts de coupe, d'augmenter la durée de vie de l'outil et d'obtenir la répartition des contraintes résiduelles adaptées a l'application de la pièce
APA, Harvard, Vancouver, ISO, and other styles
41

Meot, Alain. "Explicitation de contraintes de voisinage en analyse multivariée : applications dans le cadre de problématiques agronomiques." Lyon 1, 1992. http://www.theses.fr/1992LYO10241.

Full text
Abstract:
Nous proposons dans ce memoire une solution simple a l'etude du lien entre une information multivariee et l'existence de proximites, generalement temporelles ou spatiales, entre les individus etudies. Le premier chapitre consiste en une revue non exhaustive des solutions proposees dans la litterature pour incorporer au cours d'une ordination une information spatiale. Dans un second chapitre nous examinons le cas ou, sur un ensemble d'individus, est definie une relation de voisinage notee sous la forme d'un graphe symetrique non value. Sont introduits dans la decomposition de la variance a partir du graphe deux operateurs, appeles operateurs de voisinage, dont les vecteurs propres possedent des proprietes extremales d'autocorrelation. Ces proprietes suggerent d'utiliser ces vecteurs propres en tant que variables instrumentales plutot que sur la base de leur definition de la variance comme le fait lebart (1969) pour les analyses locales. Les acp resultantes sont appelees analyses en composantes de voisinage (acv). Au cours du troisieme chapitre nous proposons deux illustrations pedagogiques de la demarche proposee. L'influence de proximites temporelles entre individus est en premier lieu illustree a partir de courbes de production annuelle de mandariniers. L'aspect spatial est ensuite aborde au travers de la description d'une grille de denombrement definie par l'observation de vaches paturant librement sur une grande parcelle. Le quatrieme chapitre est l'aboutissement d'une recherche pluridisciplinaire au sujet des pratiques d'organisation d'un territoire pature par un eleveur d'ovins. L'ordination sert a representer les trajectoires vegetales multivariees des divers elements spatiaux composant le territoire. Autour de cette description viennent s'agencer d'autres elements explicatifs du fonctionnement technique de cette exploitation. Les methodes proposees dans le second chapitre servent a entrer plus finement dans le jeu de donnees descriptif des trajectoires vegetales
APA, Harvard, Vancouver, ISO, and other styles
42

Mangold, Nicolas. "Rhéologie du pergélisol de Mars : applications géomorphologiques et structurales ; conséquences sur l'origine des contraintes compressives." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00740850.

Full text
Abstract:
La planète Mars est pourvue d'un climat glaciaire et d'un pergélisol riche en glace. Le comportement mécanique du pergélisol est affecté par la présence de la glace. L'objectif de cette étude est (1) de mesurer expérimentalement la viscosité de mélanges glace-roche analogues au pergélisol et (2) d'appliquer ces résultats à la rhéologie du pergélisol, la tectonique et la morphologie. Des implications climatiques et tectoniques sont obtenues à partir de l'étude de glaciers rocheux et des rides compressives. Les résultats expérimentaux établissent que le mélange glace-roche se déforme de manière visqueuse pour des proportions de glace en volume, donc des porosités, supérieures à 28%. La déformation est cassante pour des proportions de glace inférieures à 28%. Ainsi, lorsque la porosité du pergélisol est élevée, celui-ci est ductile avec une résistance nettement inférieure aux niveaux fragiles. La profondeur à laquelle la déformation ductile du pergélisol peut s'effectuer est limitée par la porosité. La déformation visqueuse du pergélisol s'observe en surface sous la forme de glaciers rocheux situés dans les régions de latitude 35 à 50° où les températures sont actuellement d'environ -60°C. A partir des données de rhéologie et d'observations morphologiques, nous montrons que ces glaciers rocheux ont pu se former sur des durées de l'ordre du milliard d'années et des températures invariablement froides. Aucun réchauffement climatique important n'a pu survenir au cours de l'évolution récente de la planète, soit depuis environ 2 Ga. Les "rides" martiennes sont des structures compressives interprétées comme des chevauchements enracinés à faible profondeur. A partir d'observations structurales d'une part et des résultats expérimentaux d'autre part, nous montrons (1) que ces structures sont enracinées sur un niveau de décollement à environ 1.5 km de profondeur et (2) que ce niveau correspond à un interface ductile dû à la glace du sous-sol. Enfin nous développons le problème de la nature du champ de compression à l'origine des rides. En utilisant les observations, les méthodes de datation par cratères et les modèles de refroidissement de la planète, nous arrivons à la conclusion que la déformation compressive est générée par la contraction thermique globale de la planète.
APA, Harvard, Vancouver, ISO, and other styles
43

Mangold, Nicolas. "Rhéologie du pergélisol de Mars : applications géomorphologiques et structurales : conséquences sur l'origine des contraintes compressives." Grenoble 1, 1997. http://www.theses.fr/1997GRE10292.

Full text
Abstract:
La planete mars est pourvue d'un climat glaciaire et d'un pergelisol riche en glace. Le comportement mecanique du pergelisol est affecte par la presence de la glace. L'objectif de cette etude est (1) de mesurer experimentalement la viscosite de melanges glace-roche analogues au pergelisol et (2) d'appliquer ces resultats a la rheologie du pergelisol, la tectonique et la morphologie. Des implications climatiques et tectoniques sont obtenus a partir de l'etude de glaciers rocheux et des rides compressives. Les resultats experimentaux etablissent que le melange glace-roche se deforme de maniere visqueuse pour des proportions de glace, donc des porosites superieures a 28%. La deformation est cassante pour des proportions de glace inferieures a 28%. Ainsi, lorsque la porosite du pergelisol est elevee, celui-ci est ductile avec une resistance nettement inferieure aux niveaux fragiles. La profondeur a laquelle la deformation ductile du pergelisol peut s'effectuer est limitee par la porosite. La deformation visqueuse du pergelisol s'observe en surface sous la forme de glaciers rocheux situes dans les regions de latitude 35 a 50 ou les temperatures sont actuellement de -60c. A partir des donnees de rheologie et d'observations morphologiques, nous montrons que ces glaciers rocheux ont pu se former sur des durees de l'ordre du milliard d'annees et des temperatures invariablement froides. Aucun rechauffement climatique important n'a pu survenir au cours de l'evolution recente de la planete, soit depuis environ 2 ga. Les rides martiennes sont des structures compressives interpretees comme des chevauchements enracines a faible profondeur. A partir d'observations structurales d'une part et des resultats experimentaux d'autre part, nous montrons (1) que ces structures sont enracinees sur un niveau de decollement a environ 1. 5 km de profondeur et (2) que ce niveau correspond a un interface ductile du a la glace du sous-sol. Enfin nous developpons le probleme de la nature du champ de compression a l'origine des rides. En utilisant les observations, les methodes de datation par crateres et les modeles de refroidissement de la planete, nous arrivons a la conclusion que la deformation compressive est generee par la contraction thermique globale de la planete.
APA, Harvard, Vancouver, ISO, and other styles
44

Cherif, Amina. "Sécurité des RFIDs actifs et applications." Thesis, Limoges, 2021. http://www.theses.fr/2021LIMO0015.

Full text
Abstract:
Au cours des 30 dernières années, les dispositifs RFID actifs sont passés de simples dispositifs d’identification (tags) à des noeuds autonomes qui, en prime, collectent (à partir de l’environnement ou d’autres sources) et échangent des données. En conséquence, le spectre de leurs applications s’est largement étendu, passant de la simple identification à la surveillance et à la localisation en temps réel. Ces dernières années, grâce à leurs avantages, l’utilisation de noeuds RFID actifs pour la collecte de données mobiles a suscité une attention particulière. En effet, dans la plupart des scénarios, ces noeuds sont déployés dans des environnements adverses. Les données doivent donc être stockées et transmises de manière sécurisée pour empêcher toute attaque par des adversaires actifs : même si les noeuds sont capturés, la confidentialité des données doit être assurée. Toutefois, en raison des ressources limitées des noeuds en termes d’énergie, de stockage et/ou de calcul, la solution de sécurité utilisée doit être légère. Cette thèse est divisée en deux parties. Dans la première, nous étudierons en détail l’évolution des noeuds RFID actifs et leur sécurité. Nous présenterons ensuite, dans la seconde partie, un nouveau protocole sans serveur permettant à des MDC (collecteurs de données mobiles), par exemple des drones, de collecter en toute sécurité des données provenant de noeuds RFID actifs mobiles et statiques afin de les transmettre ultérieurement à un tiers autorisé. L’ensemble de la solution proposée garantit la confidentialité des données à chaque étape (de la phase de mesure, avant la collecte des données par le MDC, une fois les données collectées par le MDC et lors de la livraison finale), tout en satisfaisant les exigences de faible consommation des ressources (calcul, mémoire, etc.) des entités impliquées. Pour évaluer l’adéquation du protocole aux exigences de performance, nous l’implémenterons sur les dispositifs de sécurité les plus limités en ressources c’est-à-dire à base de processeur de cartes à puce pour prouver qu’il est efficace même dans les pires conditions. De plus, pour prouver que le protocole satisfait aux exigences de sécurité, nous l’analyserons à l’aide de jeux de sécurité et également d’outils de vérification formelle : AVISPA et ProVerif
Over the 30 last years, active RFID devices have evolved from nodes dedicated to identification to autonomous nodes that, in addition, sense (from environment or other sources) and exchange data. Consequently, the range of their applications has rapidly grown from identification only to monitoring and real time localisation. In recent years, thanks to their advantages, the use of active RFID nodes for mobile data collection has attracted significant attention. However, in most scenarios, these nodes are unattended in an adverse environments, so data must be securely stored and transmitted to prevent attack by active adversaries: even if the nodes are captured, data confidentiality must be ensured. Furthermore, due to the scarce resources available to nodes in terms of energy, storage and/or computation, the used security solution has to be lightweight. This thesis is divided in two parts. In the first, we will study in details the evolution of active RFID nodes and their security. We will then, present, in the second part, a new serverless protocol to enable MDCs (Mobile Data Collectors), such as drones, to collect data from mobile and static Active RFID nodes and then deliver them later to an authorized third party. The whole solution ensures data confidentiality at each step (from the sensing phase, before data collection by the MDC, once data have been collected by MDC, and during final delivery) while fulfilling the lightweight requirements for the resource-limited entities involved. To assess the suitability of the protocol against the performance requirements, we will implement it on the most resource-constrained secure devices to prove its efficiency even in the worst conditions. In addition, to prove the protocol fulfills the security requirements, we will analyze it using security games and we will also formally verify it using the AVISPA and ProVerif tools
APA, Harvard, Vancouver, ISO, and other styles
45

Doring, Mathieu. "Développement d'une méthode SPH pour les applications à surface libre en hydrodynamique." Nantes, 2005. http://www.theses.fr/2005NANT2116.

Full text
Abstract:
Le développement de méthodes numériques plus performantes associé à l’augmentation de la puissance de calcul disponible ont permis la simulation d’écoulement toujours plus complexes. Cependant, les problèmes impliquant un interface restent difficiles à résoudre, notamment dans les cas où interviennent du déferlement, des reconnections d’interface ou des phénomènes d’impacts. Ces difficultés sont liés principalement à la gestion de l’interface dans des méthodes numériques principalement Euleriennes (Volume Of Fluid, Level Set). La méthode SPH, étant Lagrangienne permet une prise en compte simplifiée de l’interface. Dans ce travail de thèse, une méthode numérique basée sur la méthode SPH a été développée, permettant de simuler des écoulements complexes faisant intervenir des phénomènes d’impacts et de déferlements très importants. Une attention particulière a été portée sur l’amélioration de la précision de la méthode ; ainsi différents types de schéma (Moving Least Square, Renormalisation) et différents types de conditions aux limites (Particules Gelées, Particules Fantômes) ont été implémentés et testés. Les résultats obtenus portent sur différents cas tests: ffondrement d’une colonne d’eau avec ou sans obstacle, écoulement dans une cuve en cavalement avec impact sur le plafond, simulation d’un bassin de houle avec batteur piston. Ces résultats ont été comparés avec des résultats issus d’autres méthodes numériques actuellement en développement au sein du laboratoire de l’école Centrale de Nantes (une méthode VOF-Volume Fini, et une méthode potentielle spectrale), mais aussi avec les résultats expérimentaux disponibles. Le développement d’une méthode originale permettant d’obtenir les efforts sur les parois solides a permis la simulation de cas d’impact d’un dièdre en mouvement libre, et la comparaison d’efforts d’impacts dans le cas d’un effondrement de colonne d’eau en présence d’un obstacle avec des efforts expérimentaux. Par ailleurs, la parallélisation du code a été entamée, par deux méthodes : la première était basée sur un décomposition des données (OpenMP) mais a été abandonnée du fait de son manque d’efficacité. La méthode actuellement employée est basée sur une décomposition du domaine physique, chaque morceau du domaine étant alloué à un processeur. Des tests menés sur un PC ont permis de montrer une bonne efficacité de la méthode de décomposition de domaine, notamment grâce au recouvrement des temps de communications entre procès par d’autres opérations. On s’est également intéressé à l’optimisation algorithmique du code, et notamment des procédures de recherche de voisins, ou un algorithme de Verlet est utilisé. Le développement du code a été effectué en gardant toujours la possibilité de réaliser des simulations tridimensionnelles en faisant un minimum d’adaptation. C’est pourquoi l’outil développé permet d’envisager dans un futur proche des simulations précises d’envahissement tridimensionnel
Recent development in numerical methods together with the increase of computational power available have allowed simulations of more and more complex flows. However interfacial flows remains a difficult task, especially when breaking, interface reconnection or impacts occurs. Theses difficulties arise mainly from the deformations of the computational domain during the simulation which are badly handled by mesh based Eulerian numerical methods. Smoothed Particle Hydrodynamics, being meshless and Lagrangian allows a simplified management of the interface. In this PhD a SPH based numerical methods has been developed in order to simulate complex free surface flows with impacts and huge breaking. A particular care was taken concerning increasment of the precision; thus different discretization schemes have been tested (Moving Least Square, Renormalisation) as well as boundary conditions (frozen particles, ghost particles) were implemented and tested. Comparison of obtained results with both experimental results and numerical simulations from different numerical methods (Volume of Fluid_Finite volume solvers, spectral potential solver) in development in the Fluid Mechanics Laboratory in a variety of test cases as dam breaking, sloshing in a tank, virtual bassin, impact of solid through free surface shows good agreement, confirming the potential of the SPH method in naval hydrodynamics. The development of an original and new method allowing the obtention of loads on solid boundary made us able to compute loads exerted on an obstacle in a dam breaking test case and to simulate impacts of a wedge in free motion with favourable comparison against experimental dynamic conditions in both configurations. Moreover, a work on parallelization of the code has been carried out, firstly in a data decomposition approach (OpenMP) which we gave up due to its poor efficiency. Then a domain decomposition method was implemented using MPI library and showed good results concerning speed-up in various configurations (PC cluster, SuperComputer) thanks to the overlapping of communication time by standard SPH serial operations. Finally the use of a Verlet like algorithm for neighbor search allowed the optimisation of computationnal efficiency. Thanks to code organisation, three dimensionnal simulations are possible with minimum adaptation
APA, Harvard, Vancouver, ISO, and other styles
46

Lee, Hwa-Sun Guyomar Daniel Richard Claude. "Etude et réalisation de sources acoustiques de puissance en composite piézoélectrique 1.3 pour applications thérapeutiques." Villeurbanne : Doc'INSA, 2004. http://docinsa.insa-lyon/these/pont.php?id=lee.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Siekkinen, Matti. "Root cause analysis of TCP throughput : methodology, techniques, and applications." Nice, 2006. http://www.theses.fr/2006NICE4037.

Full text
Abstract:
The interest for the research community to measure the Internet has grown tremendously during the last couple of years. Thisncrease of interest is largely due to the growth and expansion of the Internet that has been overwhelming. We have experienced exponential growth in terms of traffic volumes and number of devices connected to the Internet. In addition, the heterogeneity of the Internet is constantly increasing: we observe more and more different devices with different communication needs residing in or moving between different types of networks. This evolution has brought up many needs - commercial, social, and technical needs - to know more about the users, traffic, and devices connected to the Internet. Unfortunately, little such knowledge is available today and more is required every day. That is why Internet measurements has grown to become a substantial research domain today. This thesis is concerned with TCP traffic. TCP is estimated to carry over 90% of the Internet's traffic, which is why it plays a crucial role in the functioning of the entire Internet. The most important performance metrics for applications is typically throughput, i. E. The amount of data transmitted over a period of time. Our definition of the root cause analysis of TCP throughput is the analysis and inference of the reasons that prevent a given TCP connection from achieving a higher throughput. These reasons can be many: application, network, or even the TCP protocol itself. This thesis comprises three parts: methodology, techniques, and applications. The first part introduces our database management system-based methodology for passive traffic analysis. In that part we explain our approach, the InTraBase, which is based on an object-relational database management system. We also describe our prototype of this approach, which is implemented on PostgreSQL, and evaluate and optimize its performance. In the second part, we present the primary ontributions of this thesis: the techniques for root cause analysis of TCP throughput. We introduce the different potential causes that can prevent a given TCP connection to achieve a higher throughput and explain in detail the algorithms we developed and used to detect such causes. Given the large heterogeneity and potentially large impact of applications that operate on top of TCP, we emphasize their analysis. The core of the third part of this thesis is a case study of traffic originating from clients of a commercial ADSL access network. The study focuses on performance analysis of data transfers from a point of view of the client. We discover some surprising results, such as poor overall performance of P2P applications for file distribution due to upload rate limits enforced by client applications. The third part essentially binds the two first ones together: we give an idea of the capabilities of a system combining the methodology of the first part with the techniques of the second part to produce meaningful results in a real world case study
L'intérêt pour la métrologie de l'Internet s'est beaucoup accru ces dernières années. Ceci est en grande partie dû à la croissance de l'Internet en termes de volumes de trafic et de nombre de machines reliés à l'Internet. Cette évolution a sucité beaucoup d'envies - du point de vue commercial, social, et technique - d'en savoir plus au sujet des utilisateurs et du trafic Internet en général. Malheureusement, il y a peu de connaissances de ce type disponibles aujourd'hui. C'est pourquoi la métrologie de l'Internet est devenue un domaine substantiel de recherches. Cette thèse porte sur l'analyse du trafic TCP. On estime que TCP transporte 90% du trafic Internet, ce qui implique que TCP est une pièce essentielle dans le fonctionnement de l'Internet. La métrique de performance la plus importante pour les applications est, dans la plupart des cas le débit de transmission ; c'est-à-dire la quantité des données transmises par périodes de temps. Notre objectif est l'analyse du débit de transmission de TCP et l'identification des raisons qui empêchent une connexion TCP d'obtenir un débit plus élevé. Ces raisons peuvent être multiples: l'application, le réseau, ou même le protocole TCP lui-même. Cette thèse comporte trois parties. Une première partie sur la méthodologie, une seconde sur techniques d'analyse de TCP, et une dernière qui est une application de ces technique. Dans la première partie, nous présentons notre méthodologie basée sur un système de gestion de base de données (DBMS) pour l'analyse passive de trafic. Nous expliquons notre approche, nommée InTraBase, qui est basée sur un système de gestion de base de données orienté objet. Nous décrivons également notre prototype de cette approche, qui est implémenté au dessus de PostgreSQL, et nous évaluons et optimisons ses performances. Dans la deuxième partie, nous présentons les contributions principales de cette thèse: les techniques d'analyse des causes du débit de transmission TCP observé. Nous présentons les différentes causes potentielles qui peuvent empêcher une connexion TCP d'obtenir un débit plus élevé et nous expliquons en détail les algorithmes que nous avons développé pour détecter ces causes. Etant donné leur hétérogénéité et leur impact sur le débit TCP, nous accordons une grande importance aux applications au dessus de TCP. La troisième partie de cette thèse est une étude de cas du trafic des clients d'un réseau d'accès commercial d'ADSL. L'étude se concentre sur l'analyse des performances des transferts de données d'un point de vue client. Nous démontrons quelques résultats étonnants, tel le fait que les performances globalement faibles des applications pair-à-pair sont dues aux limitations du débit de transmission imposées par ces applications (et non à la congestion dans le réseau)
APA, Harvard, Vancouver, ISO, and other styles
48

Belfkih, Abderrahmen. "Contraintes temporelles dans les bases de données de capteurs sans fil." Thesis, Le Havre, 2016. http://www.theses.fr/2016LEHA0014/document.

Full text
Abstract:
Dans ce travail, nous nous focalisons sur l’ajout de contraintes temporelles dans les Bases de Données de Capteurs Sans Fil (BDCSF). La cohérence temporelle d’une BDCSF doit être assurée en respectant les contraintes temporelles des transactions et la validité temporelle des données, pour que les données prélevées par les capteurs reflètent fidèlement l’état réel de l’environnement. Cependant, les retards de transmission et/ou de réception pendant la collecte des données peuvent conduire au non-respect de la validité temporelle des données. Une solution de type bases de données s'avère la plus adéquate. Il faudrait pour cela faire coïncider les aspects BD traditionnelles avec les capteurs et leur environnement. À cette fin, les capteurs déployés au sein d'un réseau sans fils sont considérés comme une table d'une base de données distribuée, à laquelle sont appliquées des transactions (interrogations, mises à jour, etc.). Les transactions sur une BD de capteurs nécessitent des modifications pour prendre en compte l'aspect continu des données et l'aspect temps réel. Les travaux réalisés dans cette thèse portent principalement sur trois contributions : (i) une étude comparative des propriétés temporelles entre une collecte périodique des données avec une base de données classique et une approche de traitement des requêtes avec une BDCSF, (ii) la proposition d’un modèle de traitement des requêtes temps réel, (iii) la mise en œuvre d’une BDCSF temps réel, basée sur les techniques décrites dans la deuxième contribution
In this thesis, we are interested in adding real-time constraints in the Wireless Sensor Networks Database (WSNDB). Temporal consistency in WSNDB must be ensured by respecting the transaction deadlines and data temporal validity, so that sensor data reflect the current state of the environment. However, delays of transmission and/or reception in a data collection process can lead to not respect the data temporal validity. A database solution is most appropriate, which should coincide with the traditional database aspects with sensors and their environment. For this purpose, the sensor in WSN is considered as a table in a distributed database, which applied transactions (queries, updates, etc.). Transactions in a WSNDB require modifications to take into account of the continuous datastream and real-time aspects. Our contribution in this thesis focus on three parts: (i) a comparative study of temporal properties between a periodic data collection based on a remote database and query processing approach with WSNDB, (ii) the proposition of a real-time query processing model, (iii) the implementation of a real time WSNDB, based on the techniques described in the second contribution
APA, Harvard, Vancouver, ISO, and other styles
49

Lee, Hwa-Sun. "Etude et réalisation de sources acoustiques de puissance en composite piézoélectrique 1. 3 pour applications thérapeutiques." Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0006/these.pdf.

Full text
Abstract:
Des piézocomposites 1. 3 ont été étudiés pour l'émission d'ultrasons de puissance. Pour les composites réticulés à haute température, de fortes contraintes thermomécaniques ont été mises en évidence. A bas niveau, les composites réalisés présentent une bonne reproductibilité en termes de sensibilité et de bande passante. En augmentant la densité de puissance instantanée avec une émission à faible rapport cyclique, la meilleure configuration est obtenue avec un PZT dur (P189) et une résine réticulée à 120ʿC. Sous forte puissance, la destruction des composites par avalanche thermique est analysée. Selon l'hypothèse proposée, une augmentation des pertes mécaniques du PZT provoquée par la relaxation de la contrainte thermique est une limite pour le fonctionnement du composite. Un transducteur à base de 50% de PZT P189 et d'une résine avec des pertes mécaniques diminuant la température, a permis d'atteindre des densités de puissance de 40W/cmø à 500kHz sans destruction du transducteur
1-3 piezocomposites were investigated for power ultrasonic applications in the therapeutic medical domain. When the composites were cured at a high temperature, strong induced thermo-mechanical stresses were clearly observed and estimated. At low level, the fabricated composites showed a good reproducibility in terms of sensitivity and bandwidth. When the instantaneous power density is increased with low duty cycle, the best composite configuration shows a 90% efficiency up to 50W/cm². It is made with a Navy III PZT (P189) and an epoxy resin cured at 120°C. Under high average power, the thermal destruction of composites was analyzed. According to the proposed hypothesis, the PZT mechanical loss increase due to the relaxation of the thermo-mechanical stress would be a limiting point in the composite working stability. A transducer made with 50% of PZT P189 and a resin can be operated up to 40W/cm² of average power density at 500kHz without any thermal breakdown
APA, Harvard, Vancouver, ISO, and other styles
50

Mansi, Raïd. "Approches hybrides pour des variantes du sac à dos et applications." Valenciennes, 2009. https://ged.uphf.fr/nuxeo/site/esupversions/e60b3c9f-26c2-4c48-87e8-73b2461bb7d0.

Full text
Abstract:
Cette thèse porte sur l’étude de variantes du problème de sac à dos. Nous étudions d’abord des problèmes de sac à dos bi-niveaux pour lesquels nous proposons de nouvelles méthodes hybridant programmation dynamique et méthode de séparations et évaluations. Les expériences numériques montrent que les algorithmes présentés sont robustes et surpassent significativement les algorithmes de la littérature. Des heuristiques itératives hybrides basées sur des relaxations sont également conçues pour le problème du sac à dos multidimensionnel à choix multiples. Ce sont des variantes d’un schéma itératif qui convergent théoriquement vers une solution optimale du problème en résolvant une série de sous-problèmes de petite taille produits en exploitant l’information de relaxations. Nos méthodes sont enrichies par des techniques de fixation et l’ajout de coupes et pseudo-coupes induites par la recherche locale et les relaxations pour réduire l’espace de recherche. Les résultats montrent que ces heuristiques convergent rapidement vers des solutions élites et fournissent 13 nouvelles meilleures valeurs sur un ensemble de 33 instances de la littérature. Enfin, une stratégie d’oscillation combinant la programmation mathématique et des heuristiques constructives et destructives est proposée dans le but de résoudre un problème réel pour la gestion de perturbations dans le domaine aérien. Notre approche a été classée seconde d’un challenge international
In this thesis, we propose new methods hybridizing dynamic programming and integer programming exact methods to solve bilevel knapsack problems. The numerical experiments show that our algorithms are robust and surpass significantly the algorithms of the literature. Iterative hybrid heuristics based on relaxations are designed for solving multiple-choice multidimensional knapsack problem. These heuristics converge theoretically towards an optimal solution of the problem by solving a series of sub problems of small size produced by exploiting the information of relaxations. Our methods are enriched by using fixation and by the addition of cuts and pseudo-cuts induced by local search and relaxations. These added constraints are used to reduce the search space. The results show that the heuristics converge quickly to good solutions and provide 13 new better values from 33 instances of the literature. Lastly, an oscillation strategy combining the mathematical programming and constructive and destructive heuristics is proposed to solve a real problem for the management of disruptions in the air industry. Our approach was ranked second of an international challenge
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography