Дисертації з теми "Délais de bout en bout"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Délais de bout en bout.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Délais de bout en bout".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Nguyen, Huu-Nghi. "Estimation de l’écart type du délai de bout-en-bout par méthodes passives." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1044/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis l'avènement du réseau Internet, le volume de données échangées sur les réseaux a crû de manière exponentielle. Le matériel présent sur les réseaux est devenu très hétérogène, dû entre autres à la multiplication des "middleboxes" (parefeux, routeurs NAT, serveurs VPN, proxy, etc.). Les algorithmes exécutés sur les équipements réseaux (routage, “spanning tree”, etc.) sont souvent complexes, parfois fermés et propriétaires et les interfaces de supervision peuvent être très différentes d'un constructeur/équipement à un autre. Ces différents facteurs rendent la compréhension et le fonctionnement du réseau complexe. Cela a motivé la définition d'un nouveau paradigme réseaux afin de simplifier la conception et la gestion des réseaux : le SDN (“Software-defined Networking”). Il introduit la notion de contrôleur, qui est un équipement qui a pour rôle de contrôler les équipements du plan de données. Le concept SDN sépare donc le plan de données chargés de l'acheminement des paquets, qui est opéré par des équipements nommés virtual switches dans la terminologie SDN, et le plan contrôle, en charge de toutes les décisions, et qui est donc effectué par le contrôleur SDN. Pour permettre au contrôleur de prendre ses décisions, il doit disposer d'une vue globale du réseau. En plus de la topologie et de la capacité des liens, des critères de performances comme le délai, le taux de pertes, la bande passante disponible, peuvent être pris en compte. Cette connaissance peut permettre par exemple un routage multi-classes, ou/et garantir des niveaux de qualité de service. Les contributions de cette thèse portent sur la proposition d'algorithmes permettant à une entité centralisée, et en particulier à un contrôleur dans un cadre SDN, d'obtenir des estimations fiables du délai de bout-en-bout pour les flux traversant le réseau. Les méthodes proposées sont passives, c'est-à-dire qu'elles ne génèrent aucun trafic supplémentaire. Nous nous intéressons tout particulièrement à la moyenne et l'écart type du délai. Il apparaît que le premier moment peut être obtenu assez facilement. Au contraire, la corrélation qui apparaît dans les temps d'attentes des noeuds du réseau rend l'estimation de l'écart type beaucoup plus complexe. Nous montrons que les méthodes développées sont capables de capturer les corrélations des délais dans les différents noeuds et d'offrir des estimations précises de l'écart type. Ces résultats sont validés par simulations où nous considérons un large éventail de scénarios permettant de valider nos algorithmes dans différents contextes d'utilisation
Since the early beginning of Internet, the amount of data exchanged over the networks has exponentially grown. The devices deployed on the networks are very heterogeneous, because of the growing presence of middleboxes (e.g., firewalls, NAT routers, VPN servers, proxy). The algorithms run on the networking devices (e.g., routing, spanning tree) are often complex, closed, and proprietary while the interfaces to access these devices typically vary from one manufacturer to the other. All these factors tend to hinder the understanding and the management of networks. Therefore a new paradigm has been introduced to ease the design and the management of networks, namely, the SDN (Software-defined Networking). In particular, SDN defines a new entity, the controller that is in charge of controlling the devices belonging to the data plane. Thus, in a SDN-network, the data plane, which is handled by networking devices called virtual switches, and the control plane, which takes the decisions and executed by the controller, are separated. In order to let the controller take its decisions, it must have a global view on the network. This includes the topology of the network and its links capacity, along with other possible performance metrics such delays, loss rates, and available bandwidths. This knowledge can enable a multi-class routing, or help guarantee levels of Quality of Service. The contributions of this thesis are new algorithms that allow a centralized entity, such as the controller in an SDN network, to accurately estimate the end-to-end delay for a given flow in its network. The proposed methods are passive in the sense that they do not require any additional traffic to be run. More precisely, we study the expectation and the standard deviation of the delay. We show how the first moment can be easily computed. On the other hand, estimating the standard deviation is much more complex because of the correlations existing between the different waiting times. We show that the proposed methods are able to capture these correlations between delays and thus providing accurate estimations of the standard deviation of the end-to-end delay. Simulations that cover a large range of possible scenariosvalidate these results
2

Jonglez, Baptiste. "Mécanismes de bout en bout pour améliorer la latence dans les réseaux de communication." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les technologies réseau qui font fonctionner Internet ont beaucoup évolué depuis ses débuts, mais il y a un aspect de la performance des réseaux qui a peu évolué : la latence. En 25 ans, le débit disponible en couche physique a augmenté de 5 ordres de grandeur, tandis que la latence s'est à peine améliorée d'un ordre de grandeur. La latence est en effet limitée par des contraintes physiques fortes comme la vitesse de la lumière.Cette évolution différenciée du débit et de la latence a un impact important sur la conception des protocoles et leur performance, et notamment sur les protocoles de transport comme TCP. En particulier, cette évolution est indirectement responsable du phénomène de "Bufferbloat" qui remplit les tampons des routeurs et exacerbe encore davantage le problème de la latence. De plus, les utilisateurs sont de plus en plus demandeurs d'applications très réactives. En conséquence, il est nécessaire d'introduire des nouvelles techniques pour réduire la latence ressentie par les utilisateurs.Le but de cette thèse est de réduire la latence ressentie en utilisant des mécanismes de bout en bout, par opposition aux mécanismes d'infrastructure réseau. Deux mécanismes de bout en bout sont proposés. Le premier consiste à multiplexer plusieurs messages ou flux de données dans une unique connexion persistante. Cela permet de mesurer plus finement les conditions du réseau (latence, pertes de paquet) et de mieux s'y adapter, par exemple avec de meilleures retransmissions. J'ai appliqué cette technique à DNS et je montre que la latence de bout en bout est grandement améliorée en cas de perte de paquet. Cependant, en utilisant un protocole comme TCP, il peut se produire un phénomène de blocage en ligne qui dégrade les performances. Il est possible d'utiliser QUIC ou SCTP pour s'affranchir de ce problème.Le second mécanisme proposé consiste à exploiter plusieurs chemins, par exemple du Wi-Fi, une connexion filaire, et de la 4G. L'idée est d'utiliser les chemins de faible latence pour transporter le trafic sensible en priorité, tandis que le reste du trafic peut profiter de la capacité combinée des différents chemins. Multipath TCP implémente en partie cette idée, mais ne tient pas compte du multiplexage. Intégrer le multiplexage donne davantage de visibilité au scheduler sur les besoins des flux de données, et permettrait à eux-ci de coopérer. Au final, on obtient un problème d'ordonnancement qui a été identifié très récemment, "l'ordonnancement multi-chemins sensible aux flux". Ma première contribution est de modéliser ce problème. Ma seconde contribution consiste à proposer un nouvel algorithme d'ordonnancement pour ce problème, SRPT-ECF, qui améliore la erformances des petits flux de données sans impacter celle des autres flux. Cet algorithme pourrait être utilisé dans une implémentation de MPQUIC (Multipath QUIC). De façon plusgénérale, ces résultats ouvrent des perspectives sur la coopération entre flux de données, avec des applications comme l'agrégation transparente de connexions Internet
The network technologies that underpin the Internet have evolved significantly over the last decades, but one aspect of network performance has remained relatively unchanged: latency. In 25 years, the typical capacity or "bandwidth" of transmission technologies has increased by 5 orders of magnitude, while latency has barely improved by an order of magnitude. Indeed, there are hard limits on latency, such as the propagation delay which remains ultimately bounded by the speed of light.This diverging evolution between capacity and latency is having a profound impact on protocol design and performance, especially in the area of transport protocols. It indirectly caused the Bufferbloat problem, whereby router buffers are persistently full, increasing latency even more. In addition, the requirements of end-users have changed, and they expect applications to be much more reactive. As a result, new techniques are needed to reduce the latency experienced by end-hosts.This thesis aims at reducing the experienced latency by using end-to-end mechanisms, as opposed to "infrastructure" mechanisms. Two end-to-end mechanisms are proposed. The first is to multiplex several messages or data flows into a single persistent connection. This allows better measurements of network conditions (latency, packet loss); this, in turn, enables better adaptation such as faster retransmission. I applied this technique to DNS messages, where I show that it significantly improves end-to-end latency in case of packet loss. However, depending on the transport protocol used, messages can suffer from Head-of-Line blocking: this problem can be solved by using QUIC or SCTP instead of TCP.The second proposed mechanism is to exploit multiple network paths (such as Wi-Fi, wired Ethernet, 4G). The idea is to use low-latency paths for latency-sensitive network traffic, while bulk traffic can still exploit the aggregated capacity of all paths. This idea was partially realized by Multipath TCP, but it lacks support for multiplexing. Adding multiplexing allows data flows to cooperate and ensures that the scheduler has better visibility on the needs of individual data flows. This effectively amounts to a scheduling problem that was identified only very recently in the literature as "stream-aware multipath scheduling". My first contribution is to model this scheduling problem. As a second contribution, I proposed a new stream-aware multipath scheduler, SRPT-ECF, that improves the performance of small flows without impacting larger flows. This scheduler could be implemented as part of a MPQUIC (Multipath QUIC) implementation. More generally, these results open new opportunities for cooperation between flows, with applications such as improving WAN aggregation
3

Bauer, Henri. "Analyse pire cas de flux hétérogènes dans un réseau embarqué avion." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0008/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La certification des réseaux avioniques requiert une maîtrise des délais de transmission des données. Cepednant, le multiplexage et le partage des ressource de communications dans des réseaux tels que l'AFDX (Avionics Full Duplex Switched Ethernet) rendent difficile le calcul d'un délai de bout en bout pire cas pour chaque flux. Des outils comme le calcul réseau fournissent une borne supérieure (pessimiste) de ce délai pire cas. Les besoins de communication des avions civils modernes ne cessent d'augmenter et un nombre croissant de flux aux contraintes et aux caractéristiques différentes doivent partager les ressources existantes. Le réseau AFDX actuel ne permet pas de différentier plusieurs classes de trafic : les messages sont traités dans les files des commutateurs selon leur ordre d'arrivée (politique de service FIFO). L'objet de cette thèse est de montrer qu'il est possible de calculer des bornes pire cas des délais de bout en bout avec des politiques de service plus évoluées, à base de priorités statiques (Priority Queueing) ou à répartition équitable de service (Fair Queueing). Nous montrons comment l'approche par trajectoires, issue de la théorie de l'ordonnancement dans des systèmes asynchrones distribués peut s'appliquer au domaine de l'AFDX actuel et futur (intégration de politiques de service plus évoluées permettant la différentiation de flux). Nous comparons les performances de cette approche avec les outils de référence lorsque cela est possible et étudions le pessimisme des bornes ainsi obtenues
The certification process for avionics network requires guaranties on data transmission delays. However, calculating the worst case delay can be complex in the case of industrial AFDX (Avionics Full Duplex Switched Ethernet) networks. Tools such as Network Calculus provide a pessimistic upper bound of this worst case delay. Communication needs of modern commercial aircraft are expanding and a growing number of flows with various constraints and characteristics must share already existing resources. Currently deployed AFDX networks do not differentiate multiple classes of traffic: messages are processed in their arrival order in the output ports of the switches (FIFO servicing policy). The purpose of this thesis is to show that it is possible to provide upper bounds of end to end transmission delays in networks that implement more advanced servicing policies, based on static priorities (Priority Queuing) or on fairness (Fair Queuing). We show how the trajectory approach, based on scheduling theory in asynchronous distributed systems can be applied to current and future AFDX networks (supporting advanced servicing policies with flow differentiation capabilities). We compare the performance of this approach with the reference tools whenever it is possible and we study the pessimism of the computed upper bounds
4

Garnier, Ilias. "Formalisme pour la conception haut-niveau et détaillée de systèmes de contrôle-commande critiques." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00676901.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'importance des systèmes temps-réels embarqués dans les sociétés industrialisées modernes en font un terrain d'application privilégié pour les méthodes formelles. La prépondérance des contraintes temporelles dans les spécifications de ces systèmes motive la mise au point de solutions spécifiques. Cette thèse s'intéresse à une classe de systèmes temps-réels incluant ceux développés avec la chaîne d'outils OASIS, développée au CEA LIST. Nos travaux portent sur la notion de délai de bout-en-bout, que nous proposons de modéliser comme une contrainte temporelle concernant l'influence du flot d'informations des entrées sur celui des sorties. Afin de répondre à la complexité croissante des systèmes temps-réels, nous étudions l'applicabilité de cette notion nouvelle au développement incrémental par raffinement et par composition. Le raffinement est abordé sous l'angle de la conservation de propriétés garantes de la correction du système au cours du processus de développement. Nous délimitons les conditions nécessaires et suffisantes à la conservation du délai de bout-en-bout lors d'un tel processus. De même, nous donnons des conditions suffisantes pour permettre le calcul du délai de bout-en-bout de manière compositionnelle. Combinés, ces résultats permettent d'établir un formalisme permettant la preuve du délai de bout-en-bout lors d'une démarche de développement incrémentale.
5

Kemayo, Georges Arnaud. "Evaluation et validation des systèmes distribués avioniques." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2014. http://www.theses.fr/2014ESMA0010/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes avioniques sont soumis à de fortes contraintes de criticité et de temps réel. Pour certifier de telssystèmes, il est nécessaire de calculer une borne supérieure du délai de bout en bout de chaque message transmisdans le réseau. Cette thèse se focalise principalement sur l'étude des systèmes avioniques civils utilisant le réseauAFDX (Avionics Full Duplex Switched Ethernet), qui a été par exemple introduit dans l'architecture de l'AirbusA380.Dans ce contexte, nous nous sommes focalisés sur le calcul des délais de bout en bout des messages circulant dansle réseau. Parmi les méthodes existantes, nous nous sommes intéressés à la méthode des trajectoires proposéedans la littérature. Cette méthode permet de calculer des bornes supérieures du temps de traversée des messagesdans les noeuds d'un réseau AFDX. Notre première contribution a été de démontrer que cette méthode peutcalculer des délais bout en bout optimistes. Cette méthode ne peut donc pas sans modification être utilisée pourvalider les délais de bout en bout des messages transmis dans l'AFDX. Malgré l'identification des problèmes ausein de la méthode des trajectoires, il ne nous apparaît pas simple d'apporter une correction aux problèmes misen évidence. Dans un deuxième temps, nous avons proposé une nouvelle approche pour calculer ces délais quirepose sur la caractérisation pire cas du trafic que peut rencontrer un paquet, sur chaque noeud
Avionics systems are subject to hard real-time constrainst and criticality. To certify these systems, it is neccessaryto compute the upper bound of the end-to-end delay of each message transmitted in the network. In this thesis,we mainly focus on civils avionics systems that use AFDX (Avionics Full Duplex Switched Ethernet) networkand that has been introduced in the Airbus A380 architecture.In this context, we focus in the computation of the end-to-end delays of messages crossing the network. Amongthe existing methods, we interested in the trajectory approach precedently proposed by researchers. The goal ofthis method is to compute end-to-end delay upper bounds of messages in the nodes of AFDX network. As a firstcontribution, we prove that the end-to-end delays computed by this method can be optimistic. This means thatwithout any modification, it cannot be used to validate transmission end-to-end delays for the AFDX. Despitethe identification of these optimistic problems in the trajectory approach, a solution to remove them seems notto be simple from our point of view. Hence, as a second contribution, we propose a new approach to computethese delays based on the characterization of the worst-case traffic encountered by a packet on each crossednode
6

Ghandi, Sanaa. "Analysis of network delay measurements : Data mining methods for completion and segmentation." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2023. http://www.theses.fr/2023IMTA0382.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La croissance exponentielle d'Internet nécessite une supervision régulière des métriques réseau. Cette thèse se concentre sur les délais aller-retour et la possibilité de résoudre les problèmes de données manquantes et de segmentation multivariée. La première contribution comprend l'orchestration de campagnes de mesure des délais, ainsi que le développement d'un simulateur qui génère des traces de délais de bout en bout. La deuxième contribution de cette thèse est l’introduction de deux méthodes de complétion de données manquantes. La première méthode repose sur la factorisation de matrices non négatives et la seconde utilise le filtrage collaboratif neuronal. Testées sur des données synthétiques et réelles, ces méthodes démontrent leur efficacité et précision. La troisième contribution de cette thèse porte sur la segmentation multivariée des délais. Cette approche repose sur le regroupement hiérarchique et se déroule en deux étapes. Dans un premier temps, il s'agit de regrouper les séries de délais afin d'obtenir des séries présentant des variations similaires et synchrones. Ensuite, on segmente de manière conjointe les séries groupées. On utilise le regroupement hiérarchique suivi d'un post-traitement à l'aide de l'algorithme de Viterbi qui vise à lisser le résultat de la segmentation. Cette méthode a été testée sur des traces de délais réels et les résultats indiquent que cette méthode se rapproche de l'état de l'art en matière de segmentation tout en réduisant de manière significative la rapidité et les coûts de calcul
The exponential growth of the Internet requires regular monitoring of network metrics. This thesis focuses on round-trip delays and the possibility of addressing the problems of missing data and multivariate segmentation. The first contribution includes the orchestration of delay measurement campaigns, as well as the development of a simulator that generates end-to-end delay traces. The second contribution of this thesis is the introduction of two missing data completion methods. The first is based on non-negative matrix factorization, while the second uses collaborative neural filtering. Tested on synthetic and real data, these methods demonstrate their efficiency and accuracy. The third contribution of this thesis involves multivariate delay segmentation. This approach is based on hierarchical clustering and is implemented in two stages. Firstly, the delay time series are grouped to obtain, within the same group, series with similar and synchronous variations and trends. Next, the multivariate segmentation step collectively and jointly segments the series within each group. This step uses hierarchical clustering followed by post-processing using the Viterbi algorithm to smooth the segmentation result. This method was tested on real delay traces from two major events affecting two Internet Exchange Points (IXPs). The results show that this method approximates the state-of-the-art in segmentation, while significantly reducing computing speed and costs
7

Despaux, François. "Modeling and evaluation of the end-to-end delay in wireless sensor networks." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0100/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons une nouvelle approche pour modéliser et estimer les délais de bout-en-bout dans les réseaux de capteurs sans-fil (WSN). Notre approche combine les approches analytiques et expérimentales pour inférer un modèle Markovien modélisant le comportement d'un protocole de contrôle d'accès au médium (MAC) exécuté sur les nœuds d'un réseau de capteurs. À partir de ce modèle Markovien, le délai de bout en bout est ensuite obtenu par une approche analytique basée sur une analyse dans le domaine fréquentiel pour calculer la probabilité de distribution de délais pour un taux d'arrivée spécifique. Afin d’obtenir une estimation du délai de bout en bout, indépendamment du trafic en entrée, la technique de régression non-linéaire est utilisée sur un ensemble d’échantillons limités. Cette approche nous a permis de contourner deux problèmes: 1) la difficulté d'obtenir un modèle Markovien du comportement d’un protocole MAC en tenant compte de son implémentation réelle, 2) l'estimation du délai de bout-en-bout d’un WSN multi-sauts. L'approche a été validée sur un testbed réel (IOT-LAB) et pour plusieurs protocoles (X-MAC, ContikiMAC, IEEE 802.15.4) ainsi que pour un protocole de routage (RPL)
In this thesis, we propose an approach that combines both measurements and analytical approaches for infering a Markov chain model from the MAC protocol execution traces in order to be able to estimate the end to end delay in multi-hop transmission scenarios. This approach allows capturing the main features of WSN. Hence, a suitable Markov chain for modelling the WSN is infered. By means of an approach based on frequency domain analysis, end to end delay distribution for multi-hop scenarios is found. This is an important contribution of our approach with regard to existing analytical approaches where the extension of these models for considering multi-hop scenarios is not possible due to the fact that the arrival distribution to intermediate nodes is not known. Since local delay distribution for each node is obtained by analysing the MAC protocol execution traces for a given traffic scenario, the obtained model (and therefore, the whole end to end delay distribution) is traffic-dependant. In order to overcome this problem, we have proposed an approach based on non-linear regression techniques for generalising our approach in terms of the traffic rate. Results were validated for different MAC protocols (X-MAC, ContikiMAC, IEEE 802.15.4) as well as a well-known routing protocol (RPL) over real test-beds (IOT-LAB)
8

Despaux, François. "Modeling and evaluation of the end-to-end delay in wireless sensor networks." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0100.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons une nouvelle approche pour modéliser et estimer les délais de bout-en-bout dans les réseaux de capteurs sans-fil (WSN). Notre approche combine les approches analytiques et expérimentales pour inférer un modèle Markovien modélisant le comportement d'un protocole de contrôle d'accès au médium (MAC) exécuté sur les nœuds d'un réseau de capteurs. À partir de ce modèle Markovien, le délai de bout en bout est ensuite obtenu par une approche analytique basée sur une analyse dans le domaine fréquentiel pour calculer la probabilité de distribution de délais pour un taux d'arrivée spécifique. Afin d’obtenir une estimation du délai de bout en bout, indépendamment du trafic en entrée, la technique de régression non-linéaire est utilisée sur un ensemble d’échantillons limités. Cette approche nous a permis de contourner deux problèmes: 1) la difficulté d'obtenir un modèle Markovien du comportement d’un protocole MAC en tenant compte de son implémentation réelle, 2) l'estimation du délai de bout-en-bout d’un WSN multi-sauts. L'approche a été validée sur un testbed réel (IOT-LAB) et pour plusieurs protocoles (X-MAC, ContikiMAC, IEEE 802.15.4) ainsi que pour un protocole de routage (RPL)
In this thesis, we propose an approach that combines both measurements and analytical approaches for infering a Markov chain model from the MAC protocol execution traces in order to be able to estimate the end to end delay in multi-hop transmission scenarios. This approach allows capturing the main features of WSN. Hence, a suitable Markov chain for modelling the WSN is infered. By means of an approach based on frequency domain analysis, end to end delay distribution for multi-hop scenarios is found. This is an important contribution of our approach with regard to existing analytical approaches where the extension of these models for considering multi-hop scenarios is not possible due to the fact that the arrival distribution to intermediate nodes is not known. Since local delay distribution for each node is obtained by analysing the MAC protocol execution traces for a given traffic scenario, the obtained model (and therefore, the whole end to end delay distribution) is traffic-dependant. In order to overcome this problem, we have proposed an approach based on non-linear regression techniques for generalising our approach in terms of the traffic rate. Results were validated for different MAC protocols (X-MAC, ContikiMAC, IEEE 802.15.4) as well as a well-known routing protocol (RPL) over real test-beds (IOT-LAB)
9

Hotescu, Oana Andreea. "Vers la convergence de réseaux dans l'avionique." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
AFDX est le standard Ethernet commuté utilisé pour la transmission des flux avioniques. Pour des raisons de certification, le réseau AFDX déployé à présent dans les avions civils est très peu chargé. Cette thèse vise à étudier la possibilité envisagée par les avionneurs d’utiliser la bande passante AFDX restante pour transporter des flux non-avioniques additionnels (vidéo, audio, service). Ces flux ne doivent pas affecter les délais de transmission des flux avioniques. Pour multiplexer des flux avioniques et non-avioniques des politiques d’ordonnancement sont nécessaires au niveau des systèmes d’extrémité (end systems) et des commutateurs. Dans cette thèse, nous considérons l’exemple de la transmission sur AFDX de flux vidéo provenant des caméras de surveillance de l’avion. Le multiplexage des flux avioniques et vidéo est réalisé par l’introduction d’une table d’ordonnancement au niveau des end systems émetteurs et d’une politique de type SPQ dans les ports de sortie du commutateur. Cette solution préserve les contraintes temps-réel des flux avioniques, mais peut introduire des variations sur les délais de bout-en-bout des flux vidéo. Une allocation appropriée des flux avioniques dans la table d’ordonnancement peut réduire le retard d’émission des flux vidéo et ainsi, limiter les variations de délai. Nous proposons deux stratégies d’allocation des flux avioniques dans la table d’ordonnancement : une heuristique simple et une allocation optimale. L’allocation optimale est dérivée en résolvant un problème d’optimisation par contraintes qui minimise le retard d’émission des flux vidéo. Dans le cas des end systems moins chargés, l’allocation par heuristique est proche de l’optimale
AFDX is the standard switched Ethernet solution for transmitting avionic flows. Today’s AFDX deployments in commercial aircrafts are lightly loaded to ensure the determinism of control and command operations. This thesis aims at investigating a practical alternative envisioned by manufacturers that takes advantage of the remaining AFDX bandwidth to transfer additional nonavionic flows (video, audio, service). These flows must not compromise the in-time arrival of avionic ones. Thus, appropriate scheduling policies formultiplexing avionic flows with non-avionic flows are required at the emitting end systems and switch egress ports. We mainly focus on the transmission of additional flows carrying video streams from cameras located on the airplane to cockpit display. Multiplexing avionic flows with video flows is tackled by introducing table scheduling at the emitting end systems and a 2-priority levels SPQ service policy at switch egress ports. This solution preserves the real-time constraints of avionic flows but may introduce variations of the end-to-end delay of video ones. An appropriate allocation of slots to avionic flows in table scheduling can reduce the emission lag of video flows and thus, limit their delay variations. We propose two strategies to allocate avionic flows in the table scheduling: a simple one based on heuristics and an optimal one. Optimal schedules are derived by solving a constraint programming model minimizing the emission lag of video flows. For light traffic end systems, heuristic allocation is close to optimal
10

Floquet, Julien. "Mécanismes auto-organisants pour connexions de bout en bout." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC102/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réseaux de cinquième génération sont en cours de définition et leurs différentes composantes commencent à émerger: nouvelles technologies d'accès à la radio, convergence fixe et mobile des réseaux et virtualization.Le contrôle et la gestion de bout en bout (E2E) du réseau ont une importance particulière pour les performances du réseau. Cela étant, nous segmentons le travail de thèse en deux parties: le réseau d’accès radio (RAN) axé sur la technologie MIMO Massif (M-MIMO) et la connexion E2E du point de vue de la couche transport.Dans la première partie, nous considérons la formation de faisceaux focalisés avec un structure hiérarchique dans les réseaux sans fil. Pour un ensemble de flots donnée, nous proposons des algorithmes efficaces en terme de complexité pour une allocation avec alpha-équité. Nous proposons ensuite des formules exactes pour la performance au niveau du flot, à la fois pour le trafic élastique (avec une équité proportionnelle et équité max-min) et le trafic en continu. Nous validons les résultats analytiques par des simulations.La seconde partie de la thèse vise à développer une fonction de réseau auto-organisant (SON) qui améliore la qualité d'expérience (QoE) des connexions en bout-en-bout. Nous considérons un service de type vidéo streaming et développons une fonctionnalité SON qui adapte la QoE de bout-en-bout entre le serveur vidéo et l'utilisateur. La mémoire-tampon reçoit les données d'un serveur avec une connexion E2E en suivant le protocole TCP. Nous proposons un modèle qui décrit ce comportement et nous comparons les formules analytiques obtenues avec les simulations. Enfin, nous proposons un SON qui donne la qualité vidéo de sorte que la probabilité de famine soit égale à une valeur cible fixée au préalable
Fifth generation networks are being defined and their different components are beginning to emerge: new technologies for access to radio, fixed and mobile convergence of networks and virtualization.End-to-end (E2E) control and management of the network have a particular importance for network performance. Having this in mind, we segment the work of the thesis in two parts: the radio access network (RAN) with a focus on Massive MIMO (M-MIMO) technology and the E2E connection from a point of view of the transport layer.In the first part, we consider hierarchical beamforming in wireless networks. For a given population of flows, we propose computationally efficient algorithms for fair rate allocation. We next propose closed-form formulas for flow level performance, for both elastic (with either proportional fairness and max-min fairness) and streaming traffic. We further assess the performance of hierarchical beamforming using numerical experiments.In the second part, we identify an application of SON namely the control of the starvation probability of video streaming service. The buffer receives data from a server with an E2E connection following the TCP protocol. We propose a model that describes the behavior of a buffer content and we compare the analytical formulas obtained with simulations. Finally, we propose a SON function that by adjusting the application video rate, achieves a target starvation probability
11

Sallantin, Renaud. "Optimisation de bout-en-bout du démarrage des connexions TCP." Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/12180/1/sallantin.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons un mécanisme appelé Initial Spreading qui permet une optimisation remarquable des performances de TCP pour les connexions de petites tailles, représentant plus de 90% des connexions échangées dans l’Internet. Cette solution est d’autant plus intéressante que pour certaines technologies telles qu’un lien satellite, le temps d’aller-retour particulièrement long est très pénalisant, et des solutions spécifiques ont dû être implantées qui empêchent l’intégration du satellite dans un système de communication plus large. Nous montrons que l’Initial Spreading est non seulement plus performant, mais surtout plus général car pertinent dans toutes les situations. De plus, peu intrusif, il ne compromet aucune des évolutions de TCP passées ou à venir. ABSTRACT: In this Ph.D. Thesis, we propose a mechanism called Initial Spreading that significantly improves the TCP short-lived connexions performance, and so more than 90% of the Internet connections. Indeed, if regular TCP without our mechanism can be considered as efficient for terrestrial networks, its behavior is strongly damaged by the long delay of a satellite communication. Satellite community developed then some satellite specific solutions that provide good performance, but prevent the joint use of satellite and other technologies. We show therefore that Initial Spreading is not only more efficient than regular solutions but enables also the use of an unique protocol whatever the context. Moreover, being non-intrusive, it is suitable for past and future TCP evolutions.
12

Medlej, Sara. "Scalable Trajectory Approach for ensuring deterministic guarantees in large networks." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112168/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Tout comportement défectueux d’un système temps-réel critique, comme celui utilisé dans le réseau avionique ou le secteur nucléaire, peut mettre en danger des vies. Par conséquent, la vérification et validation de ces systèmes est indispensable avant leurs déploiements. En fait, les autorités de sécurité demandent d’assurer des garanties déterministes. Dans cette thèse, nous nous intéressons à obtenir des garanties temporelles, en particulier nous avons besoin de prouver que le temps de réponse de bout-en-bout de chaque flux présent dans le réseau est borné. Ce sujet a été abordé durant de nombreuses années et plusieurs approches ont été développées. Après une brève comparaison entre les différentes approches existantes, une semble être un bon candidat. Elle s’appelle l’approche par trajectoire; cette méthode utilise les résultats établis par la théorie de l'ordonnancement afin de calculer une limite supérieure. En réalité, la surestimation de la borne calculée peut entrainer la rejection de certification du réseau. Ainsi une première partie du travail consiste à détecter les sources de pessimisme de l’approche adoptée. Dans le cadre d’un ordonnancement FIFO, les termes ajoutant du pessimisme à la borne calculée ont été identifiés. Cependant, comme les autres méthodes, l’approche par trajectoire souffre du problème de passage à l’échelle. En fait, l’approche doit être appliquée sur un réseau composé d’une centaine de commutateur et d’un nombre de flux qui dépasse les milliers. Ainsi, il est important qu’elle soit en mesure d'offrir des résultats dans un délai acceptable. La première étape consiste à identifier, dans le cas d’un ordonnancement FIFO, les termes conduisant à un temps de calcul important. L'analyse montre que la complexité du calcul est due à un processus récursif et itératif. Ensuite, en se basant toujours sur l’approche par trajectoire, nous proposons de calculer une limite supérieure dans un intervalle de temps réduit et sans perte significative de précision. C'est ce qu'on appelle l'approche par trajectoire scalable. Un outil a été développé permettant de comparer les résultats obtenus par l’approche par trajectoire et notre proposition. Après application sur un réseau de taille réduite (composé de 10 commutateurs), les résultats de simulations montrent que la durée totale nécessaire pour calculer les bornes des milles flux a été réduite de plusieurs jours à une dizaine de secondes
In critical real-time systems, any faulty behavior may endanger lives. Hence, system verification and validation is essential before their deployment. In fact, safety authorities ask to ensure deterministic guarantees. In this thesis, we are interested in offering temporal guarantees; in particular we need to prove that the end-to-end response time of every flow present in the network is bounded. This subject has been addressed for many years and several approaches have been developed. After a brief comparison between the existing approaches, the Trajectory Approach sounded like a good candidate due to the tightness of its offered bound. This method uses results established by the scheduling theory to derive an upper bound. The reasons leading to a pessimistic upper bound are investigated. Moreover, since the method must be applied on large networks, it is important to be able to give results in an acceptable time frame. Hence, a study of the method’s scalability was carried out. Analysis shows that the complexity of the computation is due to a recursive and iterative processes. As the number of flows and switches increase, the total runtime required to compute the upper bound of every flow present in the network understudy grows rapidly. While based on the concept of the Trajectory Approach, we propose to compute an upper bound in a reduced time frame and without significant loss in its precision. It is called the Scalable Trajectory Approach. After applying it to a network, simulation results show that the total runtime was reduced from several days to a dozen seconds
13

Benammar, Nassima. "Modélisation, évaluation et validation des systèmes temps réel distribués." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2282/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous analysons les réseaux des systèmes temps-réel distribués et plus particulièrement ceux des domaines de l’avionique et de l’automobile. Nous nous sommes focalisés sur deux protocoles : « Avionic Full DupleX Switched Ethernet » (AFDX), « Audio Vidéo Bridging Ethernet » (AVB). Dans ces domaines critiques, le déterminisme du réseau doit être garanti. Il consiste, notamment, en la détermination d’une borne garantie du délai de bout en bout de traversée du réseau pour chaque trame ; et un dimensionnement des files d’attente des trames suffisamment grand pour garantir qu’aucune d’entre elle ne débordera et ainsi, éviter toute perte de trame.Il existe plusieurs méthodes pour l’évaluation des délais et nous avons, principalement, travaillé sur la méthode « Forward end-to-end delay Analysis » (FA). FA avait déjà été définie avec la politique d’ordonnancement « First-In-First-Out » dans le contexte de l’AFDX. Nous sommes repartis de cette approche, nous l’avons reformulé et généralisé à n’importe quel réseau Ethernet commuté. Nous l’avons aussi étendu aux priorités statiques et au protocole AVB et sa politique de service « Credit Based Shaper ». Pour chaque contribution, des démonstrations formelles ont été présentées et une expérimentation incluant une comparaison de FA avec les principales approches d’évaluation sur un exemple industriel. Finalement, nous avons développé et démontré formellement une approche pour le dimensionnement des files d’attente en termes de nombre de trames. Cette approche a été expérimentée également sur une configuration industrielle
In this thesis, we analyze networks in the context of distributed real-time systems, especially in the fields of avionics, with “Avionics Full DupleX Switched Ethernet” (AFDX), and automobile, with “Audio Video Bridging Ethernet” (AVB). For such applications, network determinism needs to be guaranteed. It involves, in particular, assessing a guaranteed bound on the end-to-end traversal time across the network fr each frame; and dimensioning the buffers in order to avoid any loss of frame because of a buffer overflow.There are several methods for worst-case delay analysis, and we have mainly worked on the “Forward end-to-end Delay Analysis” (FA) method. FA had already been developed for “First-In-First-Out” scheduling policy in the AFDX context, so we generalized it to any Switched Ethernet network. We have also extended it to handle static priorities and the AVB protocol, shaping policy named “Credit Based Shaper” (CBS). Each contribution has been formaly proved and experiments have been led on industrial configurations. For our experimentations, we have compared our results with the results of competing approaches. Finally, we have developed and formally demonstrated an approach for buffer dimensioning in terms of number of frames. This approach has also been tested on an industrial configuration and has produced tight bounds
14

Urvoy-Keller, Guillaume. "Qualite de service de bout en bout et algorithmes d'admission d'appel." Paris 6, 1999. http://www.theses.fr/1999PA066509.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette these est l'etude de la faisabilite d'un service de bout en bout pour des sources temps-reel a debit variable. Le developpement d'un tel service est necessaire pour repondre aux besoins des applications multimedia, et crucial pour atm qui n'est capable de faire, actuellement, que de l'emulation de circuit (avec sa capacite cbr) et du best-effort (avec ubr). En ip, intserv a ete le premier pas vers la gestion de ces flux. Mais juge trop complexe, il est delaisse au profit de diffserv, simple mecanisme de gestion de priorite, encore en cours de normalisation. Aucune solution operationnelle n'existe donc a ce jour. Notre approche a ete de jeter les bases d'un tel service avec pour principes (i) d'utiliser l'existant, i. E. Fifo et (ii) d'offrir des garanties de qos deterministes. Le premier probleme a resoudre est la determination d'une borne sur le delai de bout en bout. Le cas general est complexe. Nous nous sommes donc d'abord restreint aux reseaux d'accumulation. Nous avons trouve une borne de bonne qualite, la borne additive, dont nous avons derive une procedure de cac complete. Au dela du calcul de borne, la verification de la non-violation de la qos des connexions deja admises limite l'extensibilite (scalability) du service. Face a ce probleme, nous avons decide de modifier notre approche en construisant un service qui soit extensible (c'est l'approche diffserv). Une cause essentielle de non-extensibilite est la methode de traitement des flux dans le reseau. Alors que la majorite des approches sont basees sur un traitement ad-hoc des flux a debit variable, notre approche est basee sur un pretraitement avant l'entree dans le reseau. Cela permet de ramener le probleme a celui du service de sources a debit constant et assure l'extensibilite du service. Cette approche est prometteuse de par ses applications potentielles aux reseaux ip, atm et tout-optiques.
15

Carbajal, Guillaume. "Apprentissage profond bout-en-bout pour le rehaussement de la parole." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'insère dans le développement des systèmes de télécommunication mains-libres, en particulier avec des enceintes intelligentes en environnement domestique. L'utilisateur interagit avec un correspondant distant en étant généralement situé à quelques mètres de ce type de système. Les microphones sont susceptibles de capter des sons de l'environnement qui se mêlent à la voix de l'utilisateur, comme le bruit ambiant, l'écho acoustique et la réverbération. Ces types de distorsions peuvent gêner fortement l'écoute et la compréhension de la conversation par le correspondant distant, et il est donc nécessaire de les réduire. Des méthodes de filtrage existent pour réduire individuellement chacun de ces types de distorsion sonore, et leur réduction simultanée implique de combiner ces méthodes. Toutefois, celles-ci interagissent entre elles, et leurs interactions peuvent dégrader de la voix de l'utilisateur. Il est donc nécessaire d'optimiser conjointement ces méthodes. En premier lieu, nous présentons une approche de réduction de l'écho acoustique combinant un filtre d'annulation d'écho avec un post-filtre de suppression d'écho résiduel conçu de manière à s'adapter à différents modes de fonctionnement du filtre d'annulation. Pour cela, nous proposons d'estimer les coefficients du post-filtre en utilisant les spectres à court terme de plusieurs signaux observés, dont le signal estimé par le filtre d'annulation, en entrée d'un réseau de neurones. Nous montrons que cette approche améliore la performance et la robustesse du post-filtre en matière de réduction d'écho, tout en limitant la dégradation de la parole de l'utilisateur, sur plusieurs scénarios dans des conditions réelles. En second lieu, nous décrivons une approche conjointe de réduction multicanale de l'écho, de la réverbération et du bruit. Nous proposons de modéliser simultanément la parole cible et les signaux résiduels après annulation d'écho et déréverbération dans un cadre probabiliste et de représenter conjointement leurs spectres à court terme à l'aide d'un réseau de neurones récurrent. Nous intégrons cette modélisation dans un algorithme de montée par blocs de coordonnées pour mettre à jour les filtres d'annulation d'écho et de déréverbération, ainsi que le post-filtre de suppression des signaux résiduels. Nous évaluons notre approche sur des enregistrements réels dans différentes conditions. Nous montrons qu'elle améliore la qualité de la parole ainsi que la réduction de l'écho, de la réverbération et du bruit, par rapport à une approche optimisant séparément les méthodes de filtrage et une autre approche de réduction conjointe. En dernier lieu, nous formulons une version en ligne de notre approche adaptée aux situations où les conditions acoustiques varient dans le temps. Nous évaluons la qualité perceptuelle sur des exemples réels où l'utilisateur se déplace durant la conversation
This PhD falls within the development of hands-free telecommunication systems, more specifically smart speakers in domestic environments. The user interacts with another speaker at a far-end point and can be typically a few meters away from this kind of system. The microphones are likely to capture sounds of the environment which are added to the user's voice, such background noise, acoustic echo and reverberation. These types of distortion degrade speech quality, intelligibility and listening comfort for the far-end speaker, and must be reduced. Filtering methods can reduce individually each of these types of distortion. Reducing all of them implies combining the corresponding filtering methods. As these methods interact with each other which can deteriorate the user's speech, they must be jointly optimized. First of all, we introduce an acoustic echo reduction approach which combines an echo cancellation filter with a residual echo postfilter designed to adapt to the echo cancellation filter. To do so, we propose to estimate the postfilter coefficients using the short term spectra of multiple known signals, including the output of the echo cancellation filter, as inputs to a neural network. We show that this approach improves the performance and the robustness of the postfilter in terms of echo reduction, while limiting speech degradation, on several scenarios in real conditions. Secondly, we describe a joint approach for multichannel reduction of echo, reverberation and noise. We propose to simultaneously model the target speech and undesired residual signals after echo cancellation and dereveberation in a probabilistic framework, and to jointly represent their short-term spectra by means of a recurrent neural network. We develop a block-coordinate ascent algorithm to update the echo cancellation and dereverberation filters, as well as the postfilter that reduces the undesired residual signals. We evaluate our approach on real recordings in different conditions. We show that it improves speech quality and reduction of echo, reverberation and noise compared to a cascade of individual filtering methods and another joint reduction approach. Finally, we present an online version of our approach which is suitable for time-varying acoustic conditions. We evaluate the perceptual quality achieved on real examples where the user moves during the conversation
16

Starzetz, Paul. "Amélioration des performances de bout-en-bout dans des réseaux sans fil." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0100.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La contribution de cette thèse s'organise selon trois axes. Tout d'abord, celle-ci propose une approche statistique qui analyse les algorithmes d'accès au canal de type CSMA/CA en se focalisant sur le réseau IEEE 802. 11 standard et qui met en évidence une nouvelle voie de compréhension de la structure de l’algorithme d'accès CSMA/CA. De plus, nous proposons une approche pour l'accès partagé au canal qui est basée sur des fonctions de « hashage » et l'échange distribuée d'informations. Par la suite, ce travail examine un scénario pratique d'intégration WLAN / LAN dans le contexte de la performance bout en bout des protocoles usuels d'Internet en se focalisant sur le protocole classique TCP. Suivant ce scénario d'intégration WLAN / LAN, les problèmes de performance du protocole TCP sont identifiés. Par là, nous proposons une solution pour administrer les files d'attente actives des communications TCP sans fil qui est basée sur une planificateur généralisé de coûts appelé VFQ. Enfin, nous étudions le comportement du protocole TCP en ayant recours à des scénarios d'intégration en environnement de communication sans fil. De même, nous mettons en évidence des propriétés que nous utilisons pour concevoir une version améliorée du contrôle de congestion TCP classique en nous concentrant sur l'équité de communication à court terme
This thesis has a threefold contribution. The first part provides a statistical approach at analysing CSMA/CA type channel access algorithms with the focus on the IEEE 802. 11 WLAN standard and delivers novel insights into the structure of the IEEE 802. 11 CSMA/CA access algorithm. Further a proposition is made to base shared channel access on a set of hash functions and distributed information exchange. The second part of this work investigates a practical WLAN/LAN Integration scenario in the context of the end-to-end performance of today Internet protocols with focus on the classical Transmission Control Protocol (TCP). Performance issues of standard TCP in such WLAN/LAN integration scenario are identified and an active wireless queue management solution for TCP based on generalised fair cost scheduling called VFQ is presented. Ln the third and last part finally, the behaviour of the TCP protocol in simple wireless integration scenarios is analysed and a number of undesirable properties recognised and used to design an improved version of the classical TCP congestion control with focus on the short-time fairness
17

Bennani, Fayçal. "IP et la QoS : vers une maîtrise dynamique de bout en bout." Paris, ENST, 2002. http://www.theses.fr/2002ENSTA002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Bennani, Fayçal. "IP et la QoS : vers une maîtrise dynamique de bout en bout /." Paris : École nationale supérieure des télécommunications, 2002. http://catalogue.bnf.fr/ark:/12148/cb38964648w.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Monot, Aurélien. "Vérification des contraintes temporelles de bout-en-bout dans le contexte AutoSar." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00767128.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes électroniques embarqués dans les véhicules ont une complexité sans cesse croissante. Cependant, il est crucial d'en maîtriser le comportement temporel afin de garantir la sécurité ainsi que le confort des passagers. La vérifica- tion des contraintes temporelles de bout-en-bout est donc un enjeu majeur lors de la conception d'un véhicule. Dans le contexte de l'architecture logicielle AUTOSAR standard dans les véhicules, nous décomposons la vérification d'une contrainte de bout-en-bout en sous-problèmes d'ordonnancement sur les calculateurs et sur les réseaux de communication que nous traitons ensuite séparément. Dans un premier temps, nous présentons une approche permettant d'améliorer l'utilisation des calculateurs exécutant un grand nombre de composants logiciels, compatible avec l'introduction progressive des plateformes multi-coeurs. Nous dé- crivons des algorithmes rapides et efficaces pour lisser la charge périodique sur les calculateurs multi-coeurs en adaptant puis en améliorant une approche existant pour les bus CAN. Nous donnons également des résultats théoriques sur l'efficacité des algorithmes dans certains cas particuliers. Enfin, nous décrivons les possibili- tés d'utilisation de ces algorithmes en fonction des autres tâches exécutées sur le calculateur. La suite des travaux est consacrée à l'étude des distributions de temps de réponse des messages transmis sur les bus CAN. Dans un premier temps nous pré- sentons une approche de simulation basée sur la modélisation des dérives d'horloges des calculateurs communicant sur le réseau. Nous montrons que nous obtenons des distributions de temps de réponse similaires en réalisant une longue simulation avec des dérives d'horloge ou en faisant un grand nombre de courtes simulations sans dérives d'horloge. Nous présentons enfin une technique analytique pour évaluer les distributions de temps de réponse des trames CAN. Nous présentons différents para- mètres d'approximation permettant de réduire le nombre très important de calculs à effectuer en limitant la perte de précision. Enfin, nous comparons expérimentale- ment les résultats obtenus par analyse et simulation et décrivons les avantages et inconvénients respectifs de ces approches.
20

Monot, Aurélien. "Vérification des contraintes temporelles de bout-en-bout dans le contexte AutoSar." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0384.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes électroniques embarqués dans les véhicules ont une complexité sans cesse croissante. Cependant, il est crucial d'en maîtriser le comportement temporel afin de garantir la sécurité ainsi que le confort des passagers. La vérification des contraintes temporelles de bout-en-bout est donc un enjeu majeur lors de la conception d'un véhicule. Dans le contexte de l'architecture logicielle AUTOSAR standard dans les véhicules, nous décomposons la vérification d'une contrainte de bout-en-bout en sous-problèmes d'ordonnancement sur les calculateurs et sur les réseaux de communication que nous traitons ensuite séparément. Dans un premier temps, nous présentons une approche permettant d'améliorer l'utilisation des calculateurs exécutant un grand nombre de composants logiciels, compatible avec l'introduction progressive des plateformes multi-coeurs. Nous décrivons des algorithmes rapides et efficaces pour lisser la charge périodique sur les calculateurs multi-coeurs en adaptant puis en améliorant une approche existant pour les bus CAN. Nous donnons également des résultats théoriques sur l'efficacité des algorithmes dans certains cas particuliers. Enfin, nous décrivons les possibilités d'utilisation de ces algorithmes en fonction des autres tâches exécutées sur le calculateur. La suite des travaux est consacrée à l'étude des distributions de temps de réponse des messages transmis sur les bus CAN. Dans un premier temps nous présentons une approche de simulation basée sur la modélisation des dérives d'horloges des calculateurs communicant sur le réseau. Nous montrons que nous obtenons des distributions de temps de réponse similaires en réalisant une longue simulation avec des dérives d'horloge ou en faisant un grand nombre de courtes simulations sans dérives d'horloge. Nous présentons enfin une technique analytique pour évaluer les distributions de temps de réponse des trames CAN. Nous présentons différents paramètres d'approximation permettant de réduire le nombre très important de calculs à effectuer en limitant la perte de précision. Enfin, nous comparons expérimentalement les résultats obtenus par analyse et simulation et décrivons les avantages et inconvénients respectifs de ces approches
The complexity of electronic embedded systems in cars is continuously growing. Hence, mastering the temporal behavior of such systems is paramount in order to ensure the safety and comfort of the passengers. As a consequence, the verification of end-to-end real-time constraints is a major challenge during the design phase of a car. The AUTOSAR software architecture drives us to address the verification of end-to-end real-time constraints as two independent scheduling problems respectively for electronic control units and communication buses. First, we introduce an approach, which optimizes the utilization of controllers scheduling numerous software components that is compatible with the upcoming multicore architectures. We describe fast and efficient algorithms in order to balance the periodic load over time on multicore controllers by adapting and improving an existing approach used for the CAN networks. We provide theoretical result on the efficiency of the algorithms in some specific cases. Moreover, we describe how to use these algorithms in conjunction with other tasks scheduled on the controller. The remaining part of this research work addresses the problem of obtaining the response time distributions of the messages sent on a CAN network. First, we present a simulation approach based on the modelisation of clock drifts on the communicating nodes connected on the CAN network. We show that we obtain similar results with a single simulation using our approach in comparison with the legacy approach consisting in numerous short simulation runs without clock drifts. Then, we present an analytical approach in order to compute the response time distributions of the CAN frames. We introduce several approximation parameters to cope with the very high computational complexity of this approach while limiting the loss of accuracy. Finally, we compare experimentally the simulation and analytical approaches in order to discuss the relative advantages of each of the two approaches
21

Adjetey-Bahun, Kpotissan. "Résilience de bout en bout pour la (re)conception d'un système de transport." Thesis, Troyes, 2016. http://www.theses.fr/2016TROY0012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux menés dans le cadre de cette thèse consistent à développer un modèle permettant d'évaluer et d'améliorer la résilience d'un système de transport ferroviaire de masse. L'état de l'art des approches de quantification de la résilience a montré leurs limites quant à leur adéquation au système de transport ferroviaire de masse. Le système modélisé dans le cadre de cette étude se compose des quatre sous-systèmes respectivement de transport, d'énergie, de télécommunication et d'organisation. La caractérisation et la modélisation des interdépendances intra et inter sous-systèmes conduisent à mieux comprendre et étudier ce type de système. Des indicateurs de performance adaptés à ce système (le nombre de passagers arrivés à destination, le retard cumulé et la charge des passagers) permettent de quantifier la performance puis la résilience du système. Une application de ce modèle est proposée sur le réseau de transport ferroviaire de Paris. Par la suite, la modélisation des perturbations et des plans de gestion de crise ont permis d'évaluer l'impact/l'efficacité de ces plans de gestion pour les améliorer. A partir de ce modèle, un simulateur a été développé, et une procédure de mise en place d’une démarche de résilience de bout en bout dans un système de transport ferroviaire de masse est proposée. Les conditions d'exploitation sont intégrées dans les indicateurs topologiques des systèmes de transport que l'on trouve dans la littérature via le modèle. Les indicateurs de résilience ainsi obtenus se montrent plus pertinents que ces indicateurs topologiques usuels
This thesis aims to develop a model that assesses and improves the resilience of mass railway transportation system. A state of the art on resilience quantification approaches in sociotechnical systems reveals some limitations relative to their adequacy to the mass railway transportation systems. The model developed in this work is helping to give some answers to these limitations. We identify and develop four interrelated subsystems: transportation, power, telecommunication and organization subsystems. We also characterized and modeled these subsystems' interdependencies. This allows us to get insight into the system holistically. We also propose and quantify some performance indicators of this system. These performance indicators are used afterwards to quantify the resilience of the system. The number of passengers that reach their destination station, passenger delay and passenger load are performance indicators used in this work. The model is applied to the Paris mass railway transportation system. After modeling perturbations, we also assess the extent to which some crisis management plans are taken into account in the model. Then, a simulator has been developed, and an approach that aims to implement an end-to-end resilient system is proposed. Operating conditions of railway transportation system are incorporated into topological indicators of transportation systems found in the literature through the model. This allows us to show the relevance of these operating-conditions dependent indicators relative to the usual topological indicators of the studied network
22

Maxim, Cristian. "Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066479/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération
In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements
23

Maxim, Cristian. "Étude probabiliste des contraintes de bout en bout dans les systèmes temps réel." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066479.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération
In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2. Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements
24

Hehn, Olivier. "Analyse expérimentale et simulation thermomécanique du soudage bout à bout de tubes de polyéthylène." Phd thesis, École Nationale Supérieure des Mines de Paris, 2006. http://pastel.archives-ouvertes.fr/pastel-00002138.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur la compréhension et la simulation numérique des phénomènes thermomécaniques régissant la formation des soudures au cours du procédé de soudage bout à bout de tubes de polyéthylène. Ce procédé consiste à faire fondre les extrémités des tubes et à les plaquer l'un contre l'autre avec une certaine pression pour former la soudure par refroidissement de la matière. Le soudage bout à bout, qui paraît simple a priori, fait intervenir un certain nombre de phénomènes interagissant entre eux. Ainsi, il existe de forts couplages entre la mécanique, la thermique et les changements de phase. Ce manuscrit est composé de trois parties principales. Premièrement, une analyse complète du procédé a été réalisée. Ainsi, les phénomènes thermiques se produisant au cours du procédé, principaux moteurs du soudage, et les déplacements de matière, responsables de la formation du cordon de soudure, ont été étudiés. Ceci a mis en évidence l'importance de la dilatation thermique, notamment lors du chauffage de la matière, mais aussi une cinétique de formation du bourrelet et une thermique complexes (formation d'un plan vertical dans le bourrelet lors du chauffage, importance du rayonnement et de la convection lors du chauffage des tubes). Dans une deuxième partie, nous avons caractérisé la matière dans le but d'obtenir une simulation numérique du procédé la plus réaliste possible. Les lois de fusion et de crisallisation du polyéthylène ont été déterminées à partir des lois d'Avrami et d'Ozawa. Les comportements du polyéthylène à l'état liquide, solide et au cours de la transition ont également été déterminés. De plus, des mesures d'enthalpie de changement de phase et de dilatation thermique ont été faites. Finalement, l'ensemble des étapes du procédé a été simulé à l'aide du logiciel Forge2®, bien adapté à la résolution des problèmes thermiques et mécaniques responsables de la formation des soudures. Les lois et les paramètres obtenus expérimentalement ont été intégrés au logiciel. Les résultats obtenus sont très satisfaisants, tant au niveau de la thermique que du déplacement de matière et de la forme des bourrelets. Nous avons à présent une meilleure compréhension du soudage bout à bout ainsi qu'un premier outil opérationnel pour simuler le procédé.
25

Hehn, Olivier. "Analyse expérimentale et simulation thermomécanique du soudage bout a bout de tubes de polyéthylène." Paris, ENMP, 2006. http://www.theses.fr/2006ENMP1427.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur la compréhension et la simulation numérique des phénomènes thermomécaniques régissant la formation des soudures au cours du procédé de soudage bout à bout de tubes de polyéthylène. Ce procédé consiste à faire fondre les extrémités des tubes et à les plaquer l’un contre l’autre avec une certaine pression pour former la soudure par refroidissement de la matière. Le soudage bout à bout, qui paraît simple a priori, fait intervenir un certain nombre de phénomènes interagissant entre eux. Ainsi, il existe de forts couplages entre la mécanique, la thermique et les changements de phase. Ce manuscrit est composé de trois parties principales. Premièrement, une analyse complète du procédé a été réalisée. Ainsi, les phénomènes thermiques se produisant au cours du procédé, principaux moteurs du soudage, et les déplacements de matière, responsables de la formation du cordon de soudure, ont été étudiés. Ceci a mis en évidence l’importance de la dilatation thermique, notamment lors du chauffage de la matière, mais aussi une cinétique de formation du bourrelet et une thermique complexes (formation d’un plan vertical dans le bourrelet lors du chauffage, importance du rayonnement et de la convection lors du chauffage des tubes ; …). Dans une deuxième partie, nous avons caractérisé la matière dans le but d’obtenir une simulation numérique du procédé la plus réaliste possible. Les lois de fusion et de crisallisation du polyéthylène ont été déterminées à partir des lois d’Avrami et d’Ozawa. Les comportements du polyéthylène à l’état liquide, solide et au cours de la transition ont également été déterminés. De plus, des mesures d’enthalpie de changement de phase et de dilatation thermique ont été faites. Finalement, l’ensemble des étapes du procédé a été simulé à l’aide du logiciel Forge2, bien adapté à la résolution des problèmes thermiques et mécaniques responsables de la formation des soudures. Les lois et les paramètres obtenus expérimentalement ont été intégrés au logiciel. Les résultats obtenus sont très satisfaisants, tant au niveau de la thermique que du déplacement de matière et de la forme des bourrelets. Nous avons à présent une meilleure compréhension du soudage bout à bout ainsi qu’un premier outil opérationnel pour simuler le procédé
This work concerns the comprehension and the digital simulation of the thermomechanical phenomena governing the development of the welds during the process of butt fusion welding of polyethylene tubes. This process consists in melting the ends of the tubes and pressing them together to form the weld after the matter is cooled. Butt fusion welding, which seems to be simple a priori, brings in some phenomena interacting ones with the others. Thus, there are strong couplings between thermics, mechanics and phase changes. This manuscript is composed of three principal parts. Firstly, a complete analysis of the process was carried out. Thus, thermal phenomena occurring during the process, which are the main origins of welding, and displacements of matter, which are responsible for the formation of the weld bead, were studied. The importance of thermal dilatation, in particular during the heating of the matter, but also complicated kinetics of bead formation and thermal phenomena are highlighted (formation of a vertical plane in the bead during heating, importance of the radiation and the convection during tubes heating ; …). In a second part, we characterized the matter with an aim of obtaining a digital simulation of the process that is as realistic as possible. The fusion and crystallization laws of polyethylene were given using the Avrami and Ozawa laws. The behaviour of polyethylene in a liquid state, solid state and during the transition were also given. Moreover, measurements of thermal dilatation enthalpy and phase changes were made. Finally, all the stages of the process were simulated using Forge2 software, which is well adapted to the resolution of thermal and mechanical problems responsible for the welds formation. The laws and the parameters obtained in experiments were integrated into the software. The results obtained are very satisfactory, as well from the point of view of thermics as of the matter displacement and the shape of the beads. We have now a better comprehension of butt fusion welding and a first operational tool to simulate the process
26

Hamze, Mohamad. "Autonomie, sécurité et QoS de bout en bout dans un environnement de Cloud Computing." Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS033/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nos jours, le Cloud Networking est considéré comme étant l'un des domaines de recherche innovants au sein de la communauté de recherche du Cloud Computing. Les principaux défis dans un environnement de Cloud Networking concernent non seulement la garantie de qualité de service (QoS) et de sécurité mais aussi sa gestion en conformité avec un accord de niveau de service (SLA) correspondant. Dans cette thèse, nous proposons un Framework pour l'allocation des ressources conformément à un SLA établi de bout en bout entre un utilisateur de services Cloud (CSU) et plusieurs fournisseurs de services Cloud (CSP) dans un environnement de Cloud Networking (architectures d’inter-Cloud Broker et Fédération). Nos travaux se concentrent sur les services Cloud de types NaaS et IaaS. Ainsi, nous proposons l'auto-établissement de plusieurs types de SLA ainsi que la gestion autonome des ressources de Cloud correspondantes en conformité avec ces SLA en utilisant des gestionnaires autonomes spécifiques de Cloud. De plus, nous étendons les architectures et les SLA proposés pour offrir un niveau de service intégrant une garantie de sécurité. Ainsi, nous permettons aux gestionnaires autonomes de Cloud d'élargir leurs objectifs de gestion autonome aux fonctions de sécurité (auto-protection) tout en étudiant l'impact de la sécurité proposée sur la garantie de QoS. Enfin, nous validons notre architecture avec différents scénarios de simulation. Nous considérons dans le cadre de ces simulations des applications de vidéoconférence et de calcul intensif afin de leur fournir une garantie de QoS et de sécurité dans un environnement de gestion autonome des ressources du Cloud. Les résultats obtenus montrent que nos contributions permettent de bonnes performances pour ce type d’applications. En particulier, nous observons que l'architecture de type Broker est la plus économique, tout en assurant les exigences de QoS et de sécurité. De plus, nous observons que la gestion autonome des ressources du Cloud permet la réduction des violations, des pénalités et limite l'impact de la sécurité sur la garantie de la QoS
Today, Cloud Networking is one of the recent research areas within the Cloud Computing research communities. The main challenges of Cloud Networking concern Quality of Service (QoS) and security guarantee as well as its management in conformance with a corresponding Service Level Agreement (SLA). In this thesis, we propose a framework for resource allocation according to an end-to-end SLA established between a Cloud Service User (CSU) and several Cloud Service Providers (CSPs) within a Cloud Networking environment (Inter-Cloud Broker and Federation architectures). We focus on NaaS and IaaS Cloud services. Then, we propose the self-establishing of several kinds of SLAs and the self-management of the corresponding Cloud resources in conformance with these SLAs using specific autonomic cloud managers. In addition, we extend the proposed architectures and the corresponding SLAs in order to deliver a service level taking into account security guarantee. Moreover, we allow autonomic cloud managers to expand the self-management objectives to security functions (self-protection) while studying the impact of the proposed security on QoS guarantee. Finally, our proposed architecture is validated by different simulation scenarios. We consider, within these simulations, videoconferencing and intensive computing applications in order to provide them with QoS and security guarantee in a Cloud self-management environment. The obtained results show that our contributions enable good performances for these applications. In particular, we observe that the Broker architecture is the most economical while ensuring QoS and security requirements. In addition, we observe that Cloud self-management enables violations and penalties’ reduction as well as limiting security impact on QoS guarantee
27

Roset, Hervé. "Contribution à l'étude de la qualité de service de bout en bout des réseaux." Paris 6, 2004. http://www.theses.fr/2004PA066594.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Zhang, Lei. "Architecture et mecanismes de bout en bout pour les communications mobiles et sans fil dans l'internet." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2009. http://tel.archives-ouvertes.fr/tel-00435868.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La gestion performante de la mobilité et l'amélioration des performances des couches basses sont deux enjeux fondamentaux dans le contexte des réseaux sans fil. Cette thèse apporte des solutions originales et innovantes qui visent à répondre à ces deux problématiques empêchant à ce jour d'offrir des possibilités de communication performantes et sans couture aux usagers mobiles accédant à l'Internet via des réseaux d'accès locaux sans fil (WLAN). Ces solutions se distinguent en particulier par l'impact minimum qu'elles ont sur les protocoles standards de l'Internet (niveaux transport et réseau) ou de l'IEEE (niveaux physique et liaison de données). S'inscrivant dans les paradigmes de "bout en bout" et "cross-layer", notre architecture permet d'offrir des solutions efficaces pour la gestion de la mobilité : gestion de la localisation et des handover en particulier. En outre, nous montrons que notre approche permet également d'améliorer l'efficacité des transmissions ainsi que de résoudre efficacement plusieurs syndromes identifiés au sein de 802.11 tels que les anomalies de performance, l'iniquité entre les flux et l'absence de contrôle de débit entre la couche MAC et les couches supérieures. Cette thèse résout ces problèmes en combinant des modèles analytiques, des simulations et de réelles expérimentations. Ces mécanismes adaptatifs ont été développés et intégrés dans une architecture de communication qui fournit des services de communication à haute performance pour réseaux sans fils tels que WIFI et WIMAX.
29

Alaoui, Soulimani Houda. "Pilotage dynamique de la qualité de service de bout en bout pour une session "user-centric"." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00834199.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd'hui, le marché des services est devenu de plus en plus concurrentiel. Les exigences des clients pour des offres de service en adéquation avec leurs usages et leurs préférences conduisent les fournisseurs à proposer de nouveaux services qui répondent à ce nouveau besoin pour se démarquer des concurrents et attirer de nouveaux clients. Avec la convergence des réseaux et celle des services de nouvelle génération (NGN/NGS), de nouveaux services sont apparus. Les utilisateurs sont nomades et veulent utiliser leurs services de différentes manières n'importe où, n'importe quand et par n'importe quel type de terminal, et cela avec une continuité de service et une qualité de service de bout en bout. Ainsi, fournir des services personnalisés aux clients dans un environnement hétérogène et mobile devient un challenge pour les opérateurs et les fournisseurs de service pour améliorer le retour sur investissement (ROI) et le délai de mise sur le marché (TTM). Nos réflexions à propos de la fourniture des services personnalisés selon les besoins fonctionnels et non-fonctionnels (QoS) des usagers, nous ont conduits à identifier les besoins du nouveau contexte NGN/NGS défini par l'intersection de ces trois éléments "user-centric, mobilité et QoS". Comment piloter dynamiquement la QoS de bout en bout pour une session unique "user-centric"? Comment assurer le " service Delivery" dans un contexte de mobilité et d'ubiquité? Ces nouveaux besoins, nous ont motivé à proposer des solutions à travers trois contributions principales qui prennent en considération la vision utilisateur et opérateur. Notre première contribution porte sur le modèle organisationnel. Nous proposons une nouvelle organisation avec un maximum de flexibilité, d'adaptabilité et d'autogestion, qui permet de piloter la QoS à chaque niveau de l'architecture (équipement, réseau et service). Dans cette organisation nous avons défini des acteurs et le rôle que joue chacun d'eux par rapport à la prise de décision au cours de la session de l'utilisateur, et cela pour maintenir la QoS de bout en bout dans un environnement qui est totalement hétérogène et mobile.Notre deuxième contribution traite du composant de service autonomique. Avec la complexité de la personnalisation des services dans un contexte hétérogène et mobile et le besoin de satisfaire la QoS de bout en bout, les ressources services doivent être prises en compte au même titre que les ressources réseaux. Donc, un degré élevé d'autosuffisance, d'autogestion et d'automatisation est demandé dans la ressource service (composant de service) pour améliorer le service delivery. Pour cela, nous proposons un composant de service autonomique "ASC: Autonomic Service Component" basé sur un agent de QoS intégré qui s'autocontrôle et s'autogère pour adapter dynamiquement ses ressources en réponse à un changement de situations au cours de la session de l'utilisateur. Notre troisième proposition couvre le modèle protocolaire. La session de services personnalisés nécessite des interactions plus flexibles au niveau service pour avoir une session unique avec une continuité de service. Nous proposons un protocole de signalisation SIP+ qui permet la négociation de la QOS des services personnalisés dès la phase d'initialisation de la session et de la renégociation de la QoS pendant l'usage, pour maintenir le service avec la QoS requise à travers une session unique.De façon plus concrète, nous présentons nos expérimentations à travers un scenario et une plate-forme de démonstration qui nous permet de tester la faisabilité et la performance de nos contributions. Les apports et les perspectives de cette thèse sont consignés en conclusion.
30

Alaoui, Soulimani Houda. "Pilotage dynamique de la qualité de service de bout en bout pour une session "user-centric"." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0021.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd’hui, le marché des services est devenu de plus en plus concurrentiel. Les exigences des clients pour des offres de service en adéquation avec leurs usages et leurs préférences conduisent les fournisseurs à proposer de nouveaux services qui répondent à ce nouveau besoin pour se démarquer des concurrents et attirer de nouveaux clients. Avec la convergence des réseaux et celle des services de nouvelle génération (NGN/NGS), de nouveaux services sont apparus. Les utilisateurs sont nomades et veulent utiliser leurs services de différentes manières n’importe où, n’importe quand et par n’importe quel type de terminal, et cela avec une continuité de service et une qualité de service de bout en bout. Ainsi, fournir des services personnalisés aux clients dans un environnement hétérogène et mobile devient un challenge pour les opérateurs et les fournisseurs de service pour améliorer le retour sur investissement (ROI) et le délai de mise sur le marché (TTM). Nos réflexions à propos de la fourniture des services personnalisés selon les besoins fonctionnels et non-fonctionnels (QoS) des usagers, nous ont conduits à identifier les besoins du nouveau contexte NGN/NGS défini par l’intersection de ces trois éléments «user-centric, mobilité et QoS». Comment piloter dynamiquement la QoS de bout en bout pour une session unique «user-centric»? Comment assurer le « service Delivery» dans un contexte de mobilité et d’ubiquité? Ces nouveaux besoins, nous ont motivé à proposer des solutions à travers trois contributions principales qui prennent en considération la vision utilisateur et opérateur. Notre première contribution porte sur le modèle organisationnel. Nous proposons une nouvelle organisation avec un maximum de flexibilité, d’adaptabilité et d’autogestion, qui permet de piloter la QoS à chaque niveau de l’architecture (équipement, réseau et service). Dans cette organisation nous avons défini des acteurs et le rôle que joue chacun d’eux par rapport à la prise de décision au cours de la session de l’utilisateur, et cela pour maintenir la QoS de bout en bout dans un environnement qui est totalement hétérogène et mobile.Notre deuxième contribution traite du composant de service autonomique. Avec la complexité de la personnalisation des services dans un contexte hétérogène et mobile et le besoin de satisfaire la QoS de bout en bout, les ressources services doivent être prises en compte au même titre que les ressources réseaux. Donc, un degré élevé d’autosuffisance, d’autogestion et d’automatisation est demandé dans la ressource service (composant de service) pour améliorer le service delivery. Pour cela, nous proposons un composant de service autonomique «ASC: Autonomic Service Component» basé sur un agent de QoS intégré qui s’autocontrôle et s’autogère pour adapter dynamiquement ses ressources en réponse à un changement de situations au cours de la session de l’utilisateur. Notre troisième proposition couvre le modèle protocolaire. La session de services personnalisés nécessite des interactions plus flexibles au niveau service pour avoir une session unique avec une continuité de service. Nous proposons un protocole de signalisation SIP+ qui permet la négociation de la QOS des services personnalisés dès la phase d’initialisation de la session et de la renégociation de la QoS pendant l’usage, pour maintenir le service avec la QoS requise à travers une session unique.De façon plus concrète, nous présentons nos expérimentations à travers un scenario et une plate-forme de démonstration qui nous permet de tester la faisabilité et la performance de nos contributions. Les apports et les perspectives de cette thèse sont consignés en conclusion
Nowadays, the services market has become increasingly competitive. Customer requirements for service offerings in line with their uses and preferences led providers to offer new services to meet this new need and to stand out from competitors and attract new customers. With the success of the network and service convergence (NGN / NGS), new services have emerged. A mobile user desires to access his services anywhere, anytime and on any type of terminal.Thus, providing customized services to clients while ensuring the service continuity and the end-to-end quality of service in a heterogeneous and mobile environment became a challenge for mobile operators and service providers to improve the return on investment (ROI) and time-to-market (TTM). Our thinking about the provision of customized services according to the functional and non-functional (QoS) needs of the users has led us to identify the needs of the new context NGN / NGS defined by the intersection of these three elements "user-centric, mobility and QoS". How to dynamically control the end-to-end QoS for a single "user-centric" session? How to ensure the "Service Delivery" in the context of mobility and ubiquity? These new needs have led us to propose solutions through three main contributions that take into account the user and the operator vision. Our first contribution concerns the organizational model. We have proposed a new organization with a maximum of flexibility, adaptability and self-management which allows the control of the QoS at each level of the architecture (equipment, network and service). In this organization, we have defined actors and the role of each one in relation to the decision-making process during the user session in order to maintain the end-to-end QoS in an environment that is totally heterogeneous and mobile. Our second contribution addresses the autonomic service component. With the complexity of services personalization in a heterogeneous and mobile context and the need to satisfy the end to end QoS, services and network resources must be taken into account. Therefore, a high degree of self-sufficiency, self-management and automation is required in the resource service to improve the service delivery. We have therefore proposed an autonomic service component based on an integrated QoS-agent which is self-controlled and self-managed to dynamically adapt its resources in response to changing situations during the user’s session. Our third proposal covers the model protocol. The personalized services session requires more flexible interactions at the service level in order to obtain a single session with service continuity. We have proposed a signalling protocol SIP + that allows the negotiation of the QoS of personalized services at the session initialization phase and the renegotiation of the QoS during the utilization to maintain the service with the required QoS through a unique session. More concretely, we have presented our experiments through a scenario and demonstration platform that allows us to test the feasibility and the performance of our contributions. The contributions and perspectives of this thesis are stated in the conclusion
31

Chassot, Christophe. "Contribution aux protocoles et aux architectures de communication de bout en bout pour la QdS dans l'internet." Habilitation à diriger des recherches, Institut National Polytechnique de Toulouse - INPT, 2005. http://tel.archives-ouvertes.fr/tel-00012152.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces dernières années, les évolutions de linformatique et des télécommunications ont conduit à une modification drastique du paysage de la communication informatique, et en conséquence de lInternet et de ses services : les applications sont désormais à la fois multimédias, multi utilisateurs et coopératives ; les technologies réseaux offrent à présent de hauts débits de transmission, à échelle locale ou grande distance, et permettent de se connecter à lInternet via différents types de terminaux et de points daccès, filaires ou sans fil. En dépit de ces avancées, les services de communication offerts par lInternet sont encore très insuffisants, en ceci quils noffrent aucune garantie sur les performances offertes, notamment en termes de délai de bout en bout. Cest dans cette problématique que sinscrivent nos travaux, qui adressent le besoin de nouveaux services, protocoles et architectures de communication pour lInternet, dans le but doffrir des garanties de Qualité de Service (QdS). Notre démarche part dune expression formelle des besoins applicatifs et aboutit à des solutions de bout en bout visant à : (1) intégrer les niveaux considérés (Application, Transport et IP) ; (2) minimiser lutilisation des ressources (bande passante, buffer, &) ; et (3) abstraire le niveau applicatif de la complexité du choix et du paramétrage des services sous-jacents. Trois thèmes de recherche sont explorés : (1) les services et protocoles de Transport multimédia pour optimiser la QdS dans un contexte IP de type Best Effort ; (2) les architectures de bout en bout pour garantir la QdS, en coordonnant les nouveaux services de lInternet aux niveaux Transport et IP (IntServ et DiffServ mono puis multi domaines) ; et (3) la signalisation pour la QdS, dans un contexte IP de type DiffServ multi domaines. Notre prospective concerne dune part la signalisation pour la QdS en considérant à présent lhétérogénéité de lInternet multi domaines, et dautre part, les protocoles de Transp ort auto configurables et les architectures dynamiques, pour optimiser la qualité des communications et des coopérations dans les futurs réseaux ambiants (réseaux mobiles et ad hoc, capteurs, &) en tenant compte dune dynamicité du contexte à la fois au niveau utilisateur, mobile et coopérant, et au niveau du réseau, mobile et aux ressources variables. null null
32

Meilard, Nicolas. "Etoile Laser Polychromatique pour l’Optique Adaptative : modélisation de bout-en-bout, concepts et étude des systèmes optiques." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10107/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’étoile laser polychromatique (ELP) fournit la référence de phase à une optique adaptative (OA)pour corriger les surfaces d’onde turbulentes, y compris leur pente. L’ELP, générée dans la mésosphère parune excitation résonnante à deux photons du sodium, repose sur la déviation chromatique des images. Uneimagerie dans le visible devient possible, et est indispensable pour 80% des programmes astrophysiquesprioritaires de l'E-ELT.L’ELP requiert un écart-type des mesures de position 26 fois inférieur au cas classique. Cela m’a amené àétudier le projecteur laser interférométrique. J’ai mis au point un correcteur de base polychromatique pourégaliser la période des franges et un correcteur de phase pour compenser la réfraction atmosphérique. J’aiétudié l'optique de mesure des franges, et de séparation entre l'ELP et l’objet observé.La précision requise m’a conduit à étudier dans quelles conditions l’algorithme du maximum devraisemblance tend vers la borne de Cramér-Rao.J’ai également développé un modèle numérique de bout en bout pour simuler l’ELP depuis les lasersjusqu’à la mesure du rapport de Strehl. Je montre que pour un VLT, les rapports de Strehl sont supérieurs à40% à 500 nm sans étoile de référence, en prenant une OA qui aurait donné 50% instantané (Strehl depente : 80%). Une approche analytique valide ces résultats.Enfin, j’aborde l’application de l’ELP aux télécommunications interplanétaires et à la destruction des débrisorbitaux
The polychromatic laser guide star (PLGS) provides adaptive optics (AO) with a phase referenceto correct corrugated wavefronts, including tip tilt. It relies on the chromatic dispersion of light returnedfrom the 2-photon resonant excitation of sodium in the mesosphere. Diffraction limited imaging in thevisible then becomes possible. This is mandatory for 80% of the prominent astrophysical cases for the EELT.A PLGS requires standard deviations of position measurements 26 times less than in classical cases. Thus Ihave studied the interferometric laser projector. I have designed a polychromatic base corrector to equalizethe fringe periods, a phase corrector to compensate atmospheric refraction and the optics for fringemeasurements and for keeping apart the PLGS from the science target images.The required accuracy leads me to study how the maximum likelihood algorithm approaches the Cramer-Rao bound.I have written an end-to-end code for numerical simulations of the PLGS, from the lasers to the Strehlmeasurement. I get for the VLT Strehl ratios larger than 40% at 500 nm if one uses an AO providing us a50% instantaneous Strehl (tip tilt Strehl : 80%). An analytical model validates these results.Finally I address the application of the PLGS to deep space communications and to space debris clearing
33

Meilard, Nicolas. "Etoile Laser Polychromatique pour l'Optique Adaptative : modélisation de bout-en-bout, concepts et étude des systèmes optiques." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00978730.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étoile laser polychromatique (ELP) fournit la référence de phase à une optique adaptative (OA)pour corriger les surfaces d'onde turbulentes, y compris leur pente. L'ELP, générée dans la mésosphère parune excitation résonnante à deux photons du sodium, repose sur la déviation chromatique des images. Uneimagerie dans le visible devient possible, et est indispensable pour 80% des programmes astrophysiquesprioritaires de l'E-ELT.L'ELP requiert un écart-type des mesures de position 26 fois inférieur au cas classique. Cela m'a amené àétudier le projecteur laser interférométrique. J'ai mis au point un correcteur de base polychromatique pourégaliser la période des franges et un correcteur de phase pour compenser la réfraction atmosphérique. J'aiétudié l'optique de mesure des franges, et de séparation entre l'ELP et l'objet observé.La précision requise m'a conduit à étudier dans quelles conditions l'algorithme du maximum devraisemblance tend vers la borne de Cramér-Rao.J'ai également développé un modèle numérique de bout en bout pour simuler l'ELP depuis les lasersjusqu'à la mesure du rapport de Strehl. Je montre que pour un VLT, les rapports de Strehl sont supérieurs à40% à 500 nm sans étoile de référence, en prenant une OA qui aurait donné 50% instantané (Strehl depente : 80%). Une approche analytique valide ces résultats.Enfin, j'aborde l'application de l'ELP aux télécommunications interplanétaires et à la destruction des débrisorbitaux.
34

Diet, Ambre. "Une approche de bout en bout du tolérancement statistique sous contraintes industrielles : contribution au jumeau virtuel industriel." Thesis, Toulouse 3, 2021. http://www.theses.fr/2021TOU30014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le processus de fabrication d'un produit, diverses étapes d'assemblage sont nécessaires. Plusieurs types d'exigences sont à respecter à chaque niveau et ils impliquent de considérer les incertitudes de dimensions sur les pièces à assembler. Le tolérancement est l'activité en charge de la gestion de ces incertitudes et intervient à la fois en phase de développement du produit et en phase série. Dans le contexte de l'industrie aéronautique, en particulier en ce qui concerne le tolérancement sur les aérostructures, des spécificités sont à prendre en compte pour l'élaboration de méthodes et outils adéquats. Avant la mise en production, une des problématiques principales du tolérancement est l'allocation de limites de tolérance adaptées à un certain taux acceptable de rebut. Le but est de permettre aux acteurs concernés par les intervalles de tolérance de s'accorder sur une valeur de tolérance cohérente et robuste. Une méthodologie statistique basée sur une approche type borne de Chernov appliquée à une somme de distributions uniformes est proposée. En phase de production, la disponibilité de données de mesure permet de raffiner la démarche du tolérancement statistique. Le modèle linéaire considéré peut être corrigé à la faveur de nouvelles approches. Une méthodologie de gestion des critères d'acceptation sur les valeurs de tolérance est également proposée, en basant l'outil d'aide à la décision sur des notions de risques définies en adéquation avec les acteurs industriels. Dans le cadre de la révision du partage de tolérances dans un assemblage, un problème d'optimisation est formulé avec des coûts industriels appropriés afin de proposer le re-partage optimal de tolérances dans une chaîne de côte. Enfin, les méthodologies proposées sont implémentées dans les outils permettant le traitement industriel et la gestion de bout en bout des tolérances depuis les pièces élémentaires jusqu'à l'assemblage final du produit, contribuant ainsi à l'élaboration du jumeau virtuel du produit
In the manufacturing process of a product, various assembly steps are necessary. Several types of requirements have to be met at each level and involve considerations about dimensional uncertainties on the parts to be assembled. Tolerancing is the activity in charge of the management of these uncertainties and takes place both in the product development phase and in the series production phase. In the context of the aeronautics industry, in particular with regards to tolerancing on aerostructures, specificities have to be taken into account in the development of adequate methods and tools. Prior to production, one of the main issues of tolerancing amounts to allocate tolerance limits suited to a given acceptable scrap rate. The aim is to allow the actors concerned with tolerance intervals to agree on a consistent and robust tolerance value. A statistical methodology based on a Chernov bound approach applied to a sum of uniform distributions is proposed. In the production phase, the availability of measurement data allows to refine the statistical tolerancing approach. The linear model often considered can be corrected to serve new approaches. A methodology to manage acceptance criteria on tolerance values is proposed, basing the decision support on risk concepts pertinently defined for industrial actors. Within the framework of the revision of tolerance sharing in an assembly, an optimization problem is formulated with appropriate industrial costs in order to propose the optimal tolerance re-sharing in a stack chain. Finally, the proposed methodologies are implemented in tools allowing industrial processing and end-to-end management of tolerances from elementary parts to final product assembly, thus contributing to the elaboration of the product virtual twin
35

Marie, Pierrick. "Gestion de bout en bout de la qualité de contexte pour l'internet des objets : le cadriciel QoCIM." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30186/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se situe dans le cadre du projet INCOME (INfrastructure de gestion de COntexte Multi-Échelle pour l'Internet des Objets) financé par l'ANR (Appel INFRA 2011). L'objectif de ce projet est de fournir un cadriciel pour le développement et le déploiement d'un gestionnaire de contexte. Les entités logicielles d'acquisition, de traitement, de dissémination et de présentation d'informations de contexte, qui constituent un gestionnaire de contexte, doivent être construites et déployées au-dessus d'infrastructures technologiques hétérogènes et interconnectées. Ainsi, les cibles incluent les réseaux de capteurs, les systèmes ambiants, les dispositifs mobiles ou encore les serveurs du cloud, et de façon plus globale l'Internet des Objets (IoT). Les travaux menés dans cette thèse concernent plus particulièrement la gestion " de bout en bout " de la Qualité de Contexte (QoC) au sein de cette nouvelle génération de gestionnaires de contexte à déployer sur l'IoT à grande et multiples échelles. La qualité de l'information de contexte relevant de critères tels que la précision, la fraîcheur, la complétude, la granularité... Par gestion de la QoC, nous faisons référence à l'ensemble des opérations qui, tout le long du cycle de vie d'une information de contexte, permettent de gérer sa qualification, mais également d'influer, en fonction de cette qualité, sur sa dissémination et sa livraison aux applications sensibles au contexte. Actuellement des solutions de gestion de la QoC existent mais restent ad hoc à des environnements ambiants particuliers ou des applications spécifiques. Elles s'avèrent inadéquates en termes d'ouverture, de généricité et de calculabilité pour des environnements fortement hétérogènes et dynamiques tels que l'IoT où il n'y a plus de couplages forts et figés entre producteurs ou consommateurs d'informations de contexte. QoCIM (QoC Information Model) constitue le cœur de notre contribution. Il s'agit d'un méta-modèle dédié qui permet, de façon unifiée et ouverte, de définir des critères de QoC simples et composites. Basées sur QoCIM, des opérations de gestion de la QoC ont été identifiées et spécifiées. Elles permettent d'associer des critères de QoC, sous forme de métadonnées, à l'information de contexte, de caractériser les métriques et les unités pour leur valuation, d'inférer des critères de QoC de plus haut niveau d'abstraction, ou encore d'exprimer des conditions de filtrage portant sur de tels critères et/ou leurs valeurs. Un outillage logiciel d'édition de modèles QoCIM et une API en Java sont proposés aux développeurs pour facilement intégrer la gestion de tout critère de QoC lors du développement d'entités d'acquisition, de traitement, de livraison et de propagation d'informations de contexte et des applications sensibles au contexte. L'utilisation de ce cadriciel a été expérimentée, à la fois en phases de conception et d'exécution, sur un scénario de pollution urbaine. Des évaluations de performances ont été également menées et ont montré que le surcoût apporté par la prise en considération des niveaux de QoC pour le routage des informations de contexte était acceptable. Enfin, une solution d'auto-(re)configuration des opérations de gestion de la QoC a été également conçue et prototypée
The objective of the ANR INCOME project is to provide a framework for the development and the deployment of a context manager. A context manager is composed of software entities, which acquire, process, disseminate or deliver context data. These software entities have to be built and deployed over interconnected heterogeneous ICT infrastructures, which include sensor networks, ambient systems, mobile devices, cloud servers and, more generally, the Internet of Things (IoT). Related to this project, the research work presented in this thesis concerns more specifically the end-to-end management of Quality of Context (QoC) within the new generation of context managers that have to be deployed at large and multiple scales over the IoT. Quality of context data refers to criteria like accuracy, freshness, completeness or granularity. As for QoC management, it deals with all the operations that allow, throughout the life cycle of context data, to manage their qualification, but also to impact, according to this quality, on its dissemination and delivery to context-aware applications. Current QoC management solutions are dedicated to particular ambient environments or to specific applications. They are limited in terms of openness, genericity and computationability, properties required by greatly heterogeneous and dynamic IoT-based environments, in which producers and consumers of context data are no more static and highly coupled. Our contribution relies on QoCIM (QoC Information Model), a meta-model dedicated to define, in a uniform and open way, any atomic or composite QoC criterion. Based on QoCIM, some QoC management operations have been identified and specified. These operations allow to associate criteria of QoC, in the form of metadata, with the information of context; to characterize the metrics and units for their valuation; to infer QoC criteria of a higher level of abstraction; or even to express filtering conditions for such criteria or their values. A software tool for editing QoCIM models and a Java API are provided to developers to easily implement the management of any QoC criterion for their software entities that acquire, process, deliver or propagate context data, or their context-sensititive application. The use of this framework was experimented, both at design time and at run time, on a scenario related to urban pollution. Benchmarking was also led and showed that the additional cost brought when considering QoC in context information routing was acceptable. Finally, a solution for self-(re)configuring QoC management operations was also designed and prototyped
36

Villin, Olivier. "Gestion de la qualité de service de bout en bout dans les systèmes répartis : approche gestion des ressources." Evry-Val d'Essonne, 2002. http://www.theses.fr/2002EVRY0003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de la gestion de la qualité de service de bout en bout. Les applications réparties cibles sont de type flots de données requièrant des contraintes liées à la qualité de leur exécution. Notre vision d'une application est assimilée à un ensemble d'entités appelées ressources qui collaborent sur un flot de données pour fournir un résultat à l'utilisateur. Le flot de données circule selon un sens source vers puits via les ressources. Après une étude de la problèmatique de ce type d'applications, des objectifs, des mécanismes existants de gestion de la qualité de service (QoS), nous proposons une architecture de gestion de la qualité de service appelée CLOE. Notre architecture est basée sur des objets CORBA. Elle s'occupe de la qualité de service d'applications réparties par la gestion de leurs ressources. Pour cela, deux types d'entités sont utilisées : Les micros gestionnaires de qualité de service et les gestionnaires de ressources. Plusieurs mécanismes classiques de gestion de QoS sont utilisés dans ces entités pour gérer au mieux la qualité de l'application. Les "micros gestionnaires de QoS" s'occupent de la gestion globlale d'un ensemble de ressources constituant une application. Ces gestionnaires de QoS sont taillées sur mesures à un type d'application, ce qui permet une meilleure gestion de la QoS par le biais de politiques spécialisées. Les ressources sont encapsulées au sein de gestionnaires de ressources. Un gestionnaire de ressources s'occupe de la gestion d'une ressource physique ou logique. Il effectue les tâches liées au contrôle d'admission et au contrôle en cours d'exécution. En plus de ses deux entités, nous ajoutons un mécanisme dit de "sélection de ressources". Il effectue la recherche de ressources vérifiant des critères de QoS. Ces critères, issues des besoins de l'utilisateur, de la capacité de son "terminal de connexion" et de l'application qu'il utilise, sont contenus dans une entité appelée contrat de QoS. Pour effectuer la sélection de ressources, un graphe contenant les ressources compatibles avec le contrat est construit. Ce graphe contient un ensemble de ressources dont l'interconnexion constitue des chemins vérifiant tous la QoS requise par le contrat de QoS. Le choix d'un chemin et donc d'un ensemble de ressources est effectué par une sélection subjective liée à des critères de coûts ou d'utilisation de ressources. L'utilisation d'un tel graphe facilite la modification de la QoS, ou le remplacement de ressources en cours d'exécution.
37

Desot, Thierry. "Apport des modèles neuronaux de bout-en-bout pour la compréhension automatique de la parole dans l'habitat intelligent." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM069.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les enceintes intelligentes offrent la possibilité d’interagir avec les systèmes informatiques de la maison. Elles permettent d’émettre un éventail de requêtes sur des sujets divers et représentent les premières interfaces vocales disponibles couramment dans les environnements domestiques. La compréhension des commandes vocales concerne des énoncés courts ayant une syntaxe simple, dans le domaine des habitats intelligents destinés à favoriser le maintien à domicile des personnes âgées. Ils les assistent dans leur vie quotidienne, améliorant ainsi leur qualité de vie, mais peuvent aussi leur porter assistance en situations de détresse. La conception de ces habitats se concentre surtout sur les aspects de la sécurité et du confort, ciblant fréquemment sur la détection de l’activité humaine. L’aspect communication est moins pris en compte, c’est pourquoi il existe peu de corpus de parole spécifiques au domaine domotique, en particulier pour des langues autres que l’anglais, alorsqu’ils sont essentiels pour développer les systèmes de communication entre l’habitat et ses habitants. La disponibilité de tels corpus, pourrait contribuer au développement d’une génération d’enceintes intelligentes qui soient capables d’extraire des commandes vocales plus complexes. Pour contourner une telle contrainte, une partie de notre travail consiste à développer un générateur de corpus, produisant des commandes vocales spécifiques au domaine domotique, automatiquement annotées d’étiquettes d’intentions et de concepts. Un système de compréhension de la parole (SLU - Spoken Language Understanding) est nécessaire afin d’extraire les intentions et les concepts des commandes vocales avant de les fournir au module de prise de décision en charge de l’exécution des commandes. De manière classique, un module de compréhension du langage naturel (NLU - Natural Language Understanding) est précédé par un module de reconnaissance automatique de la parole (RAP), convertissant automatiquement la parole en transcriptions. Comme plusieurs études l’ont montré, l’enchaînement entre RAP et NLU dans une approche séquentielle de SLU cumule les erreurs. Par conséquent, l’une des motivations principales de nos travaux est le développement d’un module de SLU de bout en bout (End-to-End) visant à extraire les concepts et les intentions directement de la parole. À cette fin, nous élaborons d’abord une approche SLU séquentielle comme approche de référence, dans laquelle une méthode classique de RAP génère des transcriptions qui sont transmises au module NLU, avant de poursuivre par le développement d’un module de SLU de bout en bout. Ces deux systèmes de SLU sont évalués sur un corpus enregistré spécifiquement au domaine de la domotique. Nous étudions si l’information prosodique, à laquelle la SLU de bout en bout a accès, contribue à augmenter les performances. Nous comparons aussi la robustesse des deux approches lorsqu’elles sont confrontées à un style de parole aux niveaux sémantiques et syntaxiques plus varié.Cette étude est menée dans le cadre du projet VocADom financé par l’appel à projets génériques de l’ANR
Smart speakers offer the possibility of interacting with smart home systems, and make it possible to issue a range of requests about various subjects. They represent the first ambient voice interfaces that are frequently available in home environments. Very often they are only capable of inferring voice commands of a simple syntax in short utterances in the realm of smart homes that promote home care for senior adults. They support them during everyday situations by improving their quality of life, and also providing assistance in situations of distress. The design of these smart homes mainly focuses on the safety and comfort of its habitants. As a result, these research projects frequently concentrate on human activity detection, resulting in a lack of attention for the communicative aspects in a smart home design. Consequently, there are insufficient speech corpora, specific to the home automation field, in particular for languages other than English. However the availability of these corpora are crucial for developing interactive communication systems between the smart home and its inhabitants. Such corpora at one’s disposal could also contribute to the development of a generation of smart speakers capable of extracting more complex voice commands. As a consequence, part of our work consisted in developing a corpus generator, producing home automation domain specific voice commands, automatically annotated with intent and concept labels. The extraction of intents and concepts from these commands, by a Spoken Language Understanding (SLU) system is necessary to provide the decision-making module with the information, necessary for their execution. In order to react to speech, the natural language understanding (NLU) module is typically preceded by an automatic speech recognition (ASR) module, automatically converting speech into transcriptions. As several studies have shown, the interaction between ASR and NLU in a sequential SLU approach accumulates errors. Therefore, one of the main motivations of our work is the development of an end-to-end SLU module, extracting concepts and intents directly from speech. To achieve this goal, we first develop a sequential SLU approach as our baseline approach, in which a classic ASR method generates transcriptions that are passed to the NLU module, before continuing with the development of an End-to-end SLU module. These two SLU systems were evaluated on a corpus recorded in the home automation domain. We investigate whether the prosodic information that the end-to-end SLU system has access to, contributes to SLU performance. We position the two approaches also by comparing their robustness, facing speech with more semantic and syntactic variation.The context of this thesis is the ANR VocADom project
38

Barros, de Sales André. "Gestion de bout en bout de la qualité des services distribués : surveillance et sélection par une approche Modelware." Toulouse 3, 2004. http://www.theses.fr/2004TOU30075.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nos travaux concourent à offrir une sélection de services publiés en milieu distribué basée sur des informations de qualité observées. Par une approche informationnelle, nous nous sommes donnés les moyens de modéliser les influences Réseaux et Systèmes afin d'en automatiser leur gestion (identification de dépendances, déduction automatique de changement d'état,. . . ). Notre architecture conduite par des modèles informationnels (Modelware) nous a permis d'élaborer une démarche de conception d'applications de gestion, dégageant une double indépendance : l'une vis-à-vis des domaines spécifiques à gérer et l'autre vis-à-vis des plates-formes de gestion. Nous avons conçu une surveillance intégrée et contextuelle de services couplée à un service de "sélection avancée", offrant ainsi une instrumentation en temps réel des paramètres de Qualité de Service - QS. Notre solution a été expérimentée pour l'environnement CORBA, mettant en exergue les étapes de spécialisation de notre solution " Modelware " vers un environnement spécifique à gérer. Nous avons doté le service de courtage de CORBA, d'informations de QS des services publiés
Our work contributes to offer a selection of published services in distributed systems based on monitored quality management information. From an informational approach, we had the means to model the influence of Systems and Networks so as to automate their management (identification of dependencies, automatic deduction of change of state etc. ). Our informational model driven architecture (Modelware) led us to specify a designing method for management applications, expressing a double independency: one in regard to specific managed domains and another in relation to management platforms. The integrated and contextual monitoring of service was linked to an "advanced selection of service" thus offering a real-time instrumentation of Quality of Service - QoS parameters. Our solution was tested for a CORBA environment, emphasizing our "Modelware" solution's specification steps towards a specific environment to be managed. This QoS information was added to the services published in the CORBA Trader service
39

Shanahan, Brendan. "Modelling of magnetic null points using BOUT++." Thesis, University of York, 2016. http://etheses.whiterose.ac.uk/15359/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
One of the major challenges to viable fusion energy is the exhaust of hot plasma, as future magnetic fusion devices will have unacceptably high heat fluxes on the plasma facing components. Recent research into advanced divertor designs and alternative magnetic configurations attempts to alleviate this issue, however the effectiveness of these configurations relies on cross field transport in the poloidal magnetic null region, which is currently poorly understood. Simulations of instabilities and turbulence in X-point configurations are challenging due to the limitations of field-aligned coordinate systems: X-point dynamics are often interpolated based on nearby flux surfaces, which could exclude relevant physics. Here we present the results of turbulence and transport simulations relevant to tokamak X-points in various magnetic geometries using coordinate systems which are not aligned to the magnetic field. First, we present results as part of a feasibility study of a university-scale linear plasma device capable of producing azimuthal X-points. The turbulent characteristics of this system are explored and measurements using synthetic diagnostics are proposed. These studies are then extended to toroidal geometries by simulating filament propagation in TORPEX poloidal magnetic null point scenarios and comparison to experiment. It is determined that the null region can cause an acceleration of filaments due to increasing connection length, but this acceleration is small relative to other effects, which we quantify. Experimental measurements are reproduced, and the dominant acceleration mechanism is identified as that of a developing dipole in a moving background. Finally, the implementation of the Flux Coordinate Independent method for parallel derivatives into BOUT++ is investigated by simulating transport and diffusion in nonaxisymmetric geometries. The potential for BOUT++ to be used as a stellarator turbulence and transport code is also discussed.
40

Asfaha, Samuel. "Epithelial dysfunction following a bout of colitis." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq64795.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Mayer, Rebecca F. "Speaking of, Talkin 'bout, Riffing on Tap." VCU Scholars Compass, 2016. http://scholarscompass.vcu.edu/etd/4173.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This paper examines the dialects of the language that is tap dance. Unlike more codified forms of dance such as ballet, which utilize a universally-accepted technique system, the evolution of tap dance has been largely rooted in oral tradition. During Broadway’s early years, entrepreneurs in the dance training business published manuals and dictionaries on tap, as did several self-styled experts in the 1990s; because many of these books are self-published, referring to them requires educated discrimination. Drawing on my own experience as a dance student, performer, choreographer, and educator, I have observed the preferred verbal language, dance styles, and technical applications of professional and amateur dancers in the Midwest, Mid-Atlantic, New England, and the Pacific Northwest. This research combined with a comparative analysis of tap dance as portrayed in commercial theatre as well as concert dance lays the groundwork for future study in tap dance pedagogy.
42

Kaced, Ahmed Réda. "Problèmes de sécurité posés par les proxies d'adaptation multimédia : proposition de solutions pour une sécurisation de bout-en-bout." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005883.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évolution des techniques d'adaptation et des contenus multimédias adaptables a montré la nécessité de définir des techniques et des pratiques concernant la sécurité des échanges sur les réseaux. Dans la mesure où l'adaptation des documents multimédia nécessite d'autoriser la modification de ces documents entre le serveur et le client, il est important d'étudier les conditions nécessaires pour assurer ces modifications de façon sécurisée. Nous avons donc, dans ce cadre, à présenter un système de communication multimédia qui préserve l'authenticité et l'intégrité des contenus originaux de bout en bout tout en permettant l'adaptation de ces contenus par des intermédiaires. C'est l'objectif général de cette thèse. Dans ce mémoire, nous présentons SEMAFOR, une plate-forme de communication multimédia offrant aux utilisateurs la possibilité d'adapter leur contenus (selon les besoins) par des n\oe uds intermédiaires. La particularité de cette plate-forme est sa capacité de sécuriser le contenu émis de bout-en-bout, cette sécurisation repose sur deux mécanismes proposés et décrits dans cette thèse : AMCA pour l'authentification des contenu et XSST pour le chiffrement et rechiffrement intermédiaire. Les tests et les mesures de performances présentés à la fin de ce mémoire démontrent la validité des propositions décrites dans cette thèse et valident la pertinence des résultats obtenus.
43

Chen, Jinhui. "Sur des systèmes MIMO avec retour limité: distorsion bout-à-bout, retour analogique du canal, et multiplexage par couche." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005644.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions les trois sujets suivants sur les systèmes de multiples entrées multiples sorties (MIMO) avec retour limité: Distorsion bout-à-bout: La première partie de la thèse présente l'impact conjoint des les nombres d'antenne, le ratio de bande passante de la source au canal, la corrélation spatiale et diversité dans le temps sur l'espérance de la distorsion optimale bout-à-bout dans les MIMO systèmes sans panne. En particulier, repose sur l'expression analytique pour tout les ratios du signal au bruit (SNR), l'expression asymptotique de l'espérance de la distorsion optimal bout-à-bout au SNR élevé est dérivé, composé de l'exposant de distorsion optimale et le facteur de distorsion optimale. Les résultats des simulations montrent que, à un SNR élevé pratique, l'analyse sur les impacts de l'exposant de distorsion optimale et le facteur de distorsion optimale explique le comportement de la distorsion optimale bout-à-bout. Les résultats présentés dans cette partie pourraient être les objectifs de performance pour les systèmes qui transmettent les sources analogique et en outre les directives sur la conception du système. Retour analogique du canal: Dans la seconde partie de cette thèse, nous proposons d'appliquer le codage bloc d'espace-temps orthogonal (OSTBC) sur retour analogique linéaire du canal. Considérant l'information du canal MIMO est une sorte de source vectorielle analogique, par rapport au retour du canal quantifié, le retour analogique linéaire a les avantages comme sans panne, l'adaptation automatique au canal et peu complexe. Il est prouvé que la méthode de transmission analogique linéaire OSTBC peutatteindre le borne de filtre adapté (MFB) sur SNR reçu. Par rapport en méthode analogique linéaire du codage bloc d'espace-temps circulant, la méthode linéaire analogique OSTBC obtient de meilleurs résultats à l'égard de SNR reçu et erreur quadratique moyenne (MSE) ; Par rapport en méthode de la quantification vectorielle aléatoire, les résultats des simulations montrent que sous une contrainte stricte de latence, leur performances sont proches à l'égard de l'erreur moyenne au sens et la méthode linéaire analogique OSTBC exécute encore mieux à l'égard erreur quadratique moyenne. Nous étudions également l'incidence de appliquer le retour linéaire analogique OSTBC au beamforming en liaison descendante pour multiutilisateurs MIMO et nous montrons que le retour linéaire analogique OSTBC peut rendre l'approche du système des performances optimales dans un temps de latence court. Multiplexage par couche: Dans la troisime partie de cette thèse, en considérant les systèmes avec des blocs courts, une nouvelle stratégie de multi-plexage par couches est proposée d'adapter un canal incertain par le codage couche-temps Walsh, l'annuleur d'interférence successif et HARQ signalisation. Comme l'illustrent les résultats de la simulation, en raison de ses performances proches mais beaucoup moins complexe, cette stratégie serait un bon substitut µa la stratégie de modulation QAM adaptive qui est largement utilise.
44

OUISSE, ADELINA. "Simulation de bout-en-bout d'un lidar vent doppler a 10 et 2 microns - etude de systemes multi-recepteurs." Rennes 1, 2000. http://www.theses.fr/2000REN10076.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le programme de simulation aliens, developpe au dlr, a ete concu pour modeliser un systeme lidar vent doppler coherent pour recepteur unique. Lors de cette these, les modules de generation du signal et de reception de aliens ont ete substantiellement modifies pour inclure les effets des multi-telescopes et des detecteurs multi-quadrants. Les programmes resultant (appeles naliens, taliens et aaliens) ont ete developpes pour modeliser les proprietes de correlation et les structures aleatoires de la figure de chatoiement du signal lidar retro-diffuse, incluant les effets de la turbulence atmospherique. Ces nouveaux programmes furent utilises pour simuler des scenarios spatiaux et terrestres de lidar vent doppler a 10 et 2 micrometres. L'utilisation de multi-telescopes en reception ne permettra pas l'amelioration des performances du lidar pour les 2 scenarios, excepte sous de conditions particulieres. Par ailleurs, l'utilisation d'un detecteur multi-quadrants est estimee utile pour des lidar terrestres, mais pas pour des lidar spatiaux. Ces predictions furent comparees a des experiences preliminaires a 10 micrometres avec un detecteur 2 2. Les mesures initiales tendent a etre en accord avec la theorie et les simulations presentees ; elles souffrent cependant de difficultes experimentales principalement dues aux interferences electriques inter-quadrants plus elevees que prevu.
45

Mbarek, Nader. "Autonomie dans les réseaux : négociation du niveau de service de bout en bout dans un framework de gestion autonome." Bordeaux 1, 2007. http://www.theses.fr/2007BOR13453.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un des enjeux importants des années à venir est la mise en place d'un nouveau concept de gestion appelé gestion autonome (Self-Management) qui permettra d'apporter plus d'autonomie aux réseaux grâce à des fonctions d'auto configuration, d'auto protection, d'auto restauration et d'auto optimisation. C'est dans ce contexte que nous proposons un framework avec différents types d'interactions. Ainsi, les gestionnaires autonomes de haut niveau ont la possibilité de négocier avec leurs homologues un niveau de service de bout en bout pour un trafic donné. Ceci est rendu possible avec le protocole de négociation SLNP (Service Level Negotiation Protocol), que nous avons spécifié et implémenté dans un environnement standardisé de technologies de Services Web. Cet environnement permet de faciliter les différentes interactions de notre framework de gestion autonome et d'améliorer l'interopérabilité entre ses différents composants.
46

Kaced, Ahmed Reda. "Problèmes de sécurité posés par les proxies d'adaptation multimédia : proposition de solutions pour une sécurisation de bout-en-bout." Paris, ENST, 2009. https://pastel.hal.science/pastel-00005883.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évolution des techniques d'adaptation et des contenus multimédias adaptables a montré la nécessité de définir des techniques et des pratiques concernant la sécurité des échanges sur les réseaux. Dans la mesure où l'adaptation des documents multimédia nécessite d'autoriser la modification de ces documents entre le serveur et le client, il est important d'étudier les conditions nécessaires pour assurer ces modifications de façon sécurisée. Nous avons donc, dans ce cadre, à présenter un système de communication multimédia qui préserve l'authenticité et l'intégrité des contenus originaux de bout en bout tout en permettant l'adaptation de ces contenus par des intermédiaires. C'est l'objectif général de cette thèse. Dans ce mémoire, nous présentons SEMAFOR, une plate-forme de communication multimédia offrant aux utilisateurs la possibilité d'adapter leur contenus (selon les besoins) par des n\oe uds intermédiaires. La particularité de cette plate-forme est sa capacité de sécuriser le contenu émis de bout-en-bout, cette sécurisation repose sur deux mécanismes proposés et décrits dans cette thèse : AMCA pour l'authentification des contenu et XSST pour le chiffrement et rechiffrement intermédiaire. Les tests et les mesures de performances présentés à la fin de ce mémoire démontrent la validité des propositions décrites dans cette thèse et valident la pertinence des résultats obtenus
Due to the growing number of exotic networks, hardware and software and the increased demand for using multimedia services comes a tremendous need for providing adaptation techniques that end to deliver an understandable content to heterogeneous clients. These last are, generally, characterized by particular constraints and limitations which make the use of rich content difficult, in addition to the unsupported functionalities by the environment. An adaptation method transforms the content from a state to another in order to meet the constraints of the client context. In some situations, several adaptations are applied on the original content to reach that goal, on the level system (ex: choice of flows), on the level of the organization of the data (ex: choice of level in a coding scalable), on the level of the modification of flows themselves (transcoding). Offering an adaptable content for users showed the need for defining techniques and practices concerning the security of the exchanges on the networks. Insofar as the multimedia adaptation of the documents requires authorizing the modification of these documents between the Servers and the end-users, it is necessary to study the necessary conditions to ensure these modifications in a protected way. We have to present a multimedia content delivery system that preserves the end-to-end authenticity of original content while allowing content adaptation by intermediaries. It is the general aims of this thesis
47

Truck, Isis. "Calculs à l'aide de mots : vers un emploi de termes linguistiques de bout en bout dans la chaîne du raisonnement." Habilitation à diriger des recherches, Université Paris VIII Vincennes-Saint Denis, 2011. http://tel.archives-ouvertes.fr/tel-00639737.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le contexte général de mes travaux de recherche se situe dans le domaine de la représentation, modélisation puis combinaison des connaissances en milieu imprécis et vague, en particulier dans la théorie des sous-ensembles flous, d'une part, et dans la théorie des multi-ensembles, d'autre part. Dans ce contexte, nous nous attachons à concevoir des modèles ou outils linguistiques pour palier les problèmes d'imprécision. Notre travail s'est d'abord fondé sur la modulation, préservant la simplicité d'un espace de variables linguistiques de cardinalité assez faible mais sur lequel un large éventail de nuances peut être appliqué. Puis nous avons utilisé ces modèles et outils dans des contextes où l'expression de nuances est très importante, comme le *perceptual computing* dans le domaine de la classification des couleurs ou encore le jeu théâtral, et, plus récemment, pour la capture des intentions des programmeurs pour établir des politiques de contrôle et d'adaptation dynamique des architectures logicielles selon l'approche du calcul auto-régulé (*autonomic computing*).
48

Braud, Tristan. "TCP sur lien asymétrique : analyse des phénomènes et étude de solutions de faible empreinte mémoire ou de bout-en-bout." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM014/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation de TCP sur des liens asymétriques entraîne fréquemment des débits plus faibles qu'attendus au point de nuire sensiblement à la qualité de service ressentie par l'utilisateur. Ces baisses de performances peuvent prendre diverses formes parmi lesquelles une forte latence en début de connexion, une sous utilisation de la capacité du lien ou encore des latences excessivement hautes pour l'ensemble de la connexion. Afin de contrer ces effets, plusieurs approches sont possibles, que ce soit de bout-en-bout par des modifications de la pile TCP/IP ou en cœur de réseau avec divers mécanismes d'ordonnancement. L'objectif de cette thèse est d'explorer comment un résultat similaire à celui obtenu par des méthodes d'ordonnancement au goulot d'étranglement peut être obtenu en travaillant de bout-en-bout, c'est à dire là où les ressources de calcul et de mémoire sont les plus abondantes. Ce questionnement est accompagné par une analyse en profondeur des phénomènes causant une dégradation des performances, ainsi que l'évaluation des solutions existantes. Finalement, des solutions nouvelles, en cœur de réseau ainsi que de bout en bout, ont été apportées et testées sur banc d'essai
Using TCP on asymmetric links may lead to unexpected and significant performance drops, severely degrading user experience. Those performance drops can come in various forms, among which a huge latency at the beginning of a connection, under-utilization of link capacities, or even excessive delays for the whole connection.In order to prevent those effects to happen, various approaches exist, either end-to-end through changes in the TCP/IP stack, or in the network core with a collection of scheduling algorithms.The first goal of this thesis is to explore if and how an end-to-end policy (i.e where CPU and memory resources are the most abundant) can achieve similar results as buffering policies in the core of the network. Secondly, we provide an in-depth analysis of the root cause of the performance drops, and evaluate existing algorithms. Finally, new solutions, both end-to-end and in the core of the network, are brought and tested in real life networks
49

Decker, Emily Sue. "Affective responses to physical activity in obese women a high-intensity interval bout vs. a longer, isocaloric moderate-intensity bout /." [Ames, Iowa : Iowa State University], 2009. http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&res_dat=xri:pqdiss&rft_dat=xri:pqdiss:1473196.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Villa, Monteiro Daniel. "Stratégies d'alliances dans la satisfaction bout en bout de la QoS au sein d'un réseau inter-domaines hiérarchique et égoïste." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la satisfaction de la QoS de bout en bout au sein d’un réseau inter-domaines hiérarchique et égoïste. Les protocoles de routage en vigueur ne proposent qu’une unique route entre deux domaines (route directe) dont la composition est majoritairement influencée par les intérêts économiques des domaines y intervenant. Notre principale contribution a consisté en la proposition d’un nouveau modèle basé sur la notion d’alliance. Dans ce modèle, une alliance correspond à un ensemble de domaines indépendants d’un point de vue économique qui décident de partager une partie de leurs informations sur le réseau ainsi qu’un service de routage particulier (service d’escale). Le but de cette alliance est d’améliorer la satisfaction des demandes de service parmi les domaines membres par l’utilisation de routes alternatives aux routes directes respectant mieux les contraintes de QoS. Nous établissons dans un premier temps les mécanismes nécessaires à la construction de ces routes alternatives ainsi que la manière d’obtenir les estimations nécessaires. Par la suite, notre travail porte sur l’étude des caractéristiques définissant une alliance efficace. Nous proposons, ensuite, différentes compositions possibles d’alliance basées sur les caractéristiques locales des domaines mais aussi sur leur position topologique. Pour valider notre modèle et d’étudier l’efficacité des alliances, nous avons réalisé de nombreuses simulations effectuées sur des topologies réalistes et hiérarchiques. Nous y constatons que l’efficacité d’une alliance dépend naturellement de sa taille, de sa composition mais aussi de la nature et de la difficulté des contraintes de QoS à satisfaire
This thesis focuses on satisfying the QoS end to end in a inter-domain hierarchical network and selfish. Routing protocols only offer a single road between two domains (direct route), whose composition is mainly influenced by economic interests. Our main contribution has consisted in proposing a new model based on the concept of alliance. In this model, an alliance is a set of independent areas of an economic perspective that decide to share part of their information network and a particular routing service (service stop). The goal of this alliance is to improve customer service requests among the members area by using alternative routes to better direct routes respecting QoS constraints. We establish a first-time mechanisms for the construction of these alternative routes and how to obtain the necessary estimates. Subsequently, our work focuses on studying the characteristics defining an effective alliance. We propose, then, different possible compositions of alliance based on local characteristics of areas but also on their topological position. To validate our model and study the effectiveness of alliances, we have conducted numerous simulations on realistic topologies and hierarchical. We find that the effectiveness of an alliance depends of course on its size, its composition but also the nature and difficulty of QoS constraints to satisfy

До бібліографії