Tesi sul tema "Analyse de la trace d'exécution"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Analyse de la trace d'exécution.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Analyse de la trace d'exécution".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Vigouroux, Xavier. "Analyse distribuée de traces d'exécution de programmes parallèles". Lyon, École normale supérieure (sciences), 1996. http://www.theses.fr/1996ENSL0016.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le monitoring consiste a generer des informations de trace durant une execution d'un programme parallele pour detecter les problemes de performances. La quantite d'information generee par de tres grosses machines paralleles rend les outils d'analyse classiques inutilisables. Cette these resout ce probleme en distribuant l'information de trace sur plusieurs fichiers contenus sur plusieurs sites, les fichiers pouvant etre lus en parallele. La manipulation de ces fichiers afin d'obtenir une information coherente est la base d'un logiciel client-serveur grace auquel des clients demandent de l'information deja filtree sur une execution. Cette architecture client serveur est extensible (l'utilisateur peut creer ses propres clients) et modulable. Nous avons, d'autre part, cree deja plusieurs clients novateurs: client hierarchique, sonore, recherche automatique de problemes, interface filtrante aux outils classique, integration d'outil 3D
2

Amiar, Azzeddine. "Aide à l'Analyse de Traces d'Exécution dans le Contexte des Microcontrôleurs". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00978227.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Souvent, dû a l'aspect cyclique des programmes embarqu és, les traces de microcontrôleurs contiennent beaucoup de donn ées. De plus, dans notre contexte de travail, pour l'analyse du comportement, une seule trace se terminant sur une défaillance est disponible. L'objectif du travail pr esent é dans cette th ese est d'aider à l'analyse de trace de microcontrôleurs. La premi ère contribution de cette th èse concerne l'identifi cation de cycles, ainsi que la g én ération d'une description pertinente de la trace. La d étection de cycles repose sur l'identifi cation du loop- header. La description propos ée à l'ing enieur est produite en utilisant la compression bas ée sur la g én ération d'une grammaire. Cette derni ère permet la d etection de r ép étitions dans la trace. La seconde contribution concerne la localisation de faute(s). Elle est bas ée sur l'analogie entre les ex écutions du programme et les cycles. Ainsi, pour aider dans l'analyse de la trace, nous avons adapt é des techniques de localisation de faute(s) bas ée sur l'utilisation de spectres. Nous avons aussi d éfi ni un processus de filtrage permettant de r éduire le nombre de cycles àa utiliser pour la localisation de faute(s). Notre troisi ème contribution concerne l'aide a l'analyse des cas o ù les multiples cycles d'une même ex écution interagissent entre eux. Ainsi, pour faire de la localisation de faute(s) pour ce type de cas, nous nous int eressons à la recherche de r égles d'association. Le groupement des cycles en deux ensembles (cycles suspects et cycles corrects) pour la recherche de r égles d'association, permet de d e finir les comportements jug és correctes et ceux jug és comme suspects. Ainsi, pour la localisation de faute(s), nous proposons à l'ing enieur un diagnostic bas é sur l'analyse des r égles d'association selon leurs degr és de suspicion. Cette th èse pr esente également les évaluations men ées, permettant de mesurer l'efficacit e de chacune des contributions discut ées, et notre outil CoMET. Les r ésultats de ces évaluations montrent l'e fficacit e de notre travail d'aide à l'analyse de traces de microcontrôleurs.
3

Dosimont, Damien. "Agrégation spatiotemporelle pour la visualisation de traces d'exécution". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM075/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les techniques de visualisation de traces sont fréquemment employées par les développeurs pour comprendre, déboguer, et optimiser leurs applications.La plupart des outils d'analyse font appel à des représentations spatiotemporelles, qui impliquent un axe du temps et une représentation des ressources, et lient la dynamique de l'application avec sa structure ou sa topologie.Toutefois, ces dernières ne répondent pas au problème de passage à l'échelle de manière satisfaisante. Face à un volume de trace de l'ordre du Gigaoctet et une quantité d'évènements supérieure au million, elles s'avèrent incapables de représenter une vue d'ensemble de la trace, à cause des limitations imposées par la taille de l'écran, des performances nécessaires pour une bonne interaction, mais aussi des limites cognitives et perceptives de l'analyste qui ne peut pas faire face à une représentation trop complexe. Cette vue d'ensemble est nécessaire puisqu'elle constitue un point d'entrée à l'analyse~; elle constitue la première étape du mantra de Shneiderman - Overview first, zoom and filter, then details-on-demand -, un principe aidant à concevoir une méthode d'analyse visuelle.Face à ce constat, nous élaborons dans cette thèse deux méthodes d'analyse, l'une temporelle, l'autre spatiotemporelle, fondées sur la visualisation. Elles intègrent chacune des étapes du mantra de Shneiderman - dont la vue d'ensemble -, tout en assurant le passage à l'échelle.Ces méthodes sont fondées sur une méthode d'agrégation qui s'attache à réduire la complexité de la représentation tout en préservant le maximum d'information. Pour ce faire, nous associons à ces deux concepts des mesures issues de la théorie de l'information. Les parties du système sont agrégées de manière à satisfaire un compromis entre ces deux mesures, dont le poids de chacune est ajusté par l'analyste afin de choisir un niveau de détail. L'effet de la résolution de ce compromis est la discrimination de l'hétérogénéité du comportement des entités composant le système à analyser. Cela nous permet de détecter des anomalies dans des traces d'applications multimédia embarquées, ou d'applications de calcul parallèle s'exécutant sur une grille.Nous avons implémenté ces techniques au sein d'un logiciel, Ocelotl, dont les choix de conception assurent le passage à l'échelle pour des traces de plusieurs milliards d'évènements. Nous proposons également une interaction efficace, notamment en synchronisant notre méthode de visualisation avec des représentations plus détaillées, afin de permettre une analyse descendante jusqu'à la source des anomalies
Trace visualization techniques are commonly used by developers to understand, debug, and optimize their applications.Most of the analysis tools contain spatiotemporal representations, which is composed of a time line and the resources involved in the application execution. These techniques enable to link the dynamic of the application to its structure or its topology.However, they suffer from scalability issues and are incapable of providing overviews for the analysis of huge traces that have at least several Gigabytes and contain over a million of events. This is caused by screen size constraints, performance that is required for a efficient interaction, and analyst perceptive and cognitive limitations. Indeed, overviews are necessary to provide an entry point to the analysis, as recommended by Shneiderman's emph{mantra} - Overview first, zoom and filter, then details-on-demand -, a guideline that helps to design a visual analysis method.To face this situation, we elaborate in this thesis several scalable analysis methods based on visualization. They represent the application behavior both over the temporal and spatiotemporal dimensions, and integrate all the steps of Shneiderman's mantra, in particular by providing the analyst with a synthetic view of the trace.These methods are based on an aggregation method that reduces the representation complexity while keeping the maximum amount of information. Both measures are expressed using information theory measures. We determine which parts of the system to aggregate by satisfying a trade-off between these measures; their respective weights are adjusted by the user in order to choose a level of details. Solving this trade off enables to show the behavioral heterogeneity of the entities that compose the analyzed system. This helps to find anomalies in embedded multimedia applications and in parallel applications running on a computing grid.We have implemented these techniques into Ocelotl, an analysis tool developed during this thesis. We designed it to be capable to analyze traces containing up to several billions of events. Ocelotl also proposes effective interactions to fit with a top-down analysis strategy, like synchronizing our aggregated view with more detailed representations, in order to find the sources of the anomalies
4

Emteu, Tchagou Serge Vladimir. "Réduction à la volée du volume des traces d'exécution pour l'analyse d'applications multimédia de systèmes embarqués". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM051/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le marché de l'électronique grand public est dominé par les systèmes embarqués du fait de leur puissance de calcul toujours croissante et des nombreuses fonctionnalités qu'ils proposent.Pour procurer de telles caractéristiques, les architectures des systèmes embarqués sont devenues de plus en plus complexes (pluralité et hétérogénéité des unités de traitements, exécution concurrente des tâches, ...).Cette complexité a fortement influencé leur programmabilité au point où rendre difficile la compréhension de l'exécution d'une application sur ces architectures.L'approche la plus utilisée actuellement pour l'analyse de l'exécution des applications sur les systèmes embarqués est la capture des traces d'exécution (séquences d'événements, tels que les appels systèmes ou les changements de contexte, générés pendant l'exécution des applications).Cette approche est utilisée lors des activités de test, débogage ou de profilage des applications.Toutefois, suivant certains cas d'utilisation, les traces d'exécution générées peuvent devenir très volumineuses, de l'ordre de plusieurs centaines de gigaoctets.C'est le cas des tests d'endurance ou encore des tests de validation, qui consistent à tracer l'exécution d'une application sur un système embarqué pendant de longues périodes, allant de plusieurs heures à plusieurs jours.Les outils et méthodes d'analyse de traces d'exécution actuels ne sont pas conçus pour traiter de telles quantités de données.Nous proposons une approche de réduction du volume de trace enregistrée à travers une analyse à la volée de la trace durant sa capture.Notre approche repose sur les spécificités des applications multimédia, qui sont parmi les plus importantes pour le succès des dispositifs populaires comme les Set-top boxes ou les smartphones.Notre approche a pour but de détecter automatiquement les fragments (périodes) suspectes de l'exécution d'une application afin de n'enregistrer que les parties de la trace correspondant à ces périodes d'activités.L'approche que nous proposons comporte deux étapes : une étape d'apprentissage qui consiste à découvrir les comportements réguliers de l'application à partir de la trace d'exécution, et une étape de détection d'anomalies qui consiste à identifier les comportements déviant des comportements réguliers.Les nombreuses expériences, réalisées sur des données synthétiques et des données réelles, montrent que notre approche permet d'obtenir une réduction du volume de trace enregistrée d'un ordre de grandeur avec d'excellentes performances de détection des comportements suspects
The consumer electronics market is dominated by embedded systems due to their ever-increasing processing power and the large number of functionnalities they offer.To provide such features, architectures of embedded systems have increased in complexity: they rely on several heterogeneous processing units, and allow concurrent tasks execution.This complexity degrades the programmability of embedded system architectures and makes application execution difficult to understand on such systems.The most used approach for analyzing application execution on embedded systems consists in capturing execution traces (event sequences, such as system call invocations or context switch, generated during application execution).This approach is used in application testing, debugging or profiling.However in some use cases, execution traces generated can be very large, up to several hundreds of gigabytes.For example endurance tests, which are tests consisting in tracing execution of an application on an embedded system during long periods, from several hours to several days.Current tools and methods for analyzing execution traces are not designed to handle such amounts of data.We propose an approach for monitoring an application execution by analyzing traces on the fly in order to reduce the volume of recorded trace.Our approach is based on features of multimedia applications which contribute the most to the success of popular devices such as set-top boxes or smartphones.This approach consists in identifying automatically the suspicious periods of an application execution in order to record only the parts of traces which correspond to these periods.The proposed approach consists of two steps: a learning step which discovers regular behaviors of an application from its execution trace, and an anomaly detection step which identifies behaviors deviating from the regular ones.The many experiments, performed on synthetic and real-life datasets, show that our approach reduces the trace size by an order of magnitude while maintaining a good performance in detecting suspicious behaviors
5

Zoor, Maysam. "Latency verification in execution traces of HW/SW partitioning model". Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAT037.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Alors que de nombreux travaux de recherche visent à définir de nouvelles techniques de vérification (formelle) pour vérifier les exigences dans un modèle, la compréhension de la cause profonde de la violation d'une exigence reste un problème ouvert pour les plateformes complexes construites autour de composants logiciels et matériels. Par exemple, la violation d'une exigence de latence est-elle due à un ordonnancement temps réel défavorable, à des conflits sur les bus, aux caractéristiques des algorithmes fonctionnels ou des composants matériels ? Cette thèse introduit une approche d'analyse précise de la latence appelée PLAN. PLAN prend en entrée une instance d'un modèle de partitionnement HW/SW, une trace d'exécution, et une contrainte de temps exprimée sous la forme suivante : la latence entre l'opérateur A et l'opérateur B doit être inférieure à une valeur de latence maximale. PLAN vérifie d'abord si la condition de latence est satisfaite. Si ce n'est pas le cas, l'intérêt principal de PLAN est de fournir la cause première de la non satisfaction en classant les transactions d'exécution en fonction de leur impact sur la latence : transaction obligatoire, transaction induisant une contention, transaction n'ayant aucun impact, etc. Une première version de PLAN suppose une exécution pour laquelle il existe une exécution unique de l'opérateur A et une exécution unique de l'opérateur B. Une seconde version de PLAN peut calculer, pour chaque opérateur A exécuté, l'opérateur B correspondant. Pour cela, notre approche s'appuie sur des techniques de tainting. La thèse formalise les deux versions de PLAN et les illustre par des exemples ludiques. Ensuite, nous montrons comment PLAN a été intégré dans un Framework Dirigé par le Modèle (TTool). Les deux versions de PLAN sont illustrées par deux études de cas tirées du projet H2020 AQUAS. En particulier, nous montrons comment l'altération peut traiter efficacement les multiples et occurrences concurrentes du même opérateur
While many research works aim at defining new (formal) verification techniques to check for requirements in a model, understanding the root cause of a requirement violation is still an open issue for complex platforms built around software and hardware components. For instance, is the violation of a latency requirement due to unfavorable real-time scheduling, to contentions on buses, to the characteristics of functional algorithms or hardware components?This thesis introduces a Precise Latency ANalysis approach called PLAN. PLAN takes as input an instance of a HW/SW partitioning model, an execution trace, and a time constraint expressed in the following format: the latency between operator A and operator B should be less than a maximum latency value. First PLAN checks if the latency requirement is satisfied. If not, the main interest of PLAN is to provide the root cause of the non satisfaction by classifying execution transactions according to their impact on latency: obligatory transaction, transaction inducing a contention, transaction having no impact, etc.A first version of PLAN assumes an execution for which there is a unique execution of operator A and a unique execution of operator B. A second version of PLAN can compute, for each executed operator A, the corresponding operator B. For this, our approach relies on tainting techniques.The thesis formalizes the two versions of PLAN and illustrates them with toy examples. Then, we show how PLAN was integrated into a Model-Driven Framework (TTool). The two versions of PLAN are illustrated with two case studies taken from the H2020 AQUAS project. In particular, we show how tainting can efficiently handle the multiple and concurrent occurrences of the same operator
6

Lesage, Benjamin. "Architecture multi-coeurs et temps d'exécution au pire cas". Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00870971.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les tâches critiques en systèmes temps-réel sont soumises à des contraintes temporelles et de correction. La validation d'un tel système repose sur l'estimation du comportement temporel au pire cas de ses tâches. Le partage de ressources, inhérent aux architectures multi-cœurs, entrave le calcul de ces estimations. Le comportement temporel d'une tâche dépend de ses rivales du fait de l'arbitrage de l'accès aux ressources ou de modifications concurrentes de leur état. Cette étude vise à l'estimation de la contribution temporelle de la hiérarchie mémoire au pire temps d'exécution de tâches critiques. Les méthodes existantes, pour caches d'instructions, sont étendues afin de supporter caches de données privés et partagés, et permettre l'analyse de hiérarchies mémoires riches. Le court-circuitage de cache est ensuite utilisé pour réduire la pression sur les caches partagés. Nous proposons à cette fin différentes heuristiques basées sur la capture de la réutilisation de blocs de cache entre différents accès mémoire. Notre seconde proposition est la politique de partitionnement Preti qui permet l'allocation d'un espace sans conflits à une tâche. Preti favorise aussi les performances de tâches non critiques concurrentes aux temps-réel dans les systèmes de criticité hybride.
7

Lopez, Cueva Patricia. "Debugging Embedded Multimedia Application Execution Traces through Periodic Pattern Mining". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01006213.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La conception des systèmes multimédia embarqués présente de nombreux défis comme la croissante complexité du logiciel et du matériel sous-jacent, ou les pressions liées aux délais de mise en marche. L'optimisation du processus de débogage et validation du logiciel peut aider à réduire sensiblement le temps de développement. Parmi les outils de débogage de systèmes embarqués, un puissant outil largement utilisé est l'analyse de traces d'exécution. Cependant, l'évolution des techniques de tra¸cage dans les systèmes embarqués se traduit par des traces d'exécution avec une grande quantité d'information, à tel point que leur analyse manuelle devient ingérable. Dans ce cas, les techniques de recherche de motifs peuvent aider en trouvant des motifs intéressants dans de grandes quantités d'information. Concrètement, dans cette thèse, nous nous intéressons à la découverte de comportements périodiques sur des applications multimédia. Donc, les contributions de cette thèse concernent l'analyse des traces d'exécution d'applications multimédia en utilisant des techniques de recherche de motifs périodiques fréquents. Concernant la recherche de motifs périodiques, nous proposons une définition de motif périodique adaptée aux caractéristiques de la programmation paralléle. Nous proposons ensuite une représentation condensée de l'ensemble de motifs périodiques fréquents, appelée Core Periodic Concepts (CPC), en adoptant une approche basée sur les relations triadiques. De plus, nous définissons quelques propriétés de connexion entre ces motifs, ce qui nous permet de mettre en oeuvre un algorithme efficace de recherche de CPC, appelé PerMiner. Pour montrer l'efficacité et le passage à l'échelle de PerMiner, nous réalisons une analyse rigoureuse qui montre que PerMiner est au moins deux ordres de grandeur plus rapide que l'état de l'art. En plus, nous réalisons un analyse de l'efficacité de PerMiner sur une trace d'exécution d'une application multimédia réelle en présentant l'accélération accompli par la version parallèle de l'algorithme. Concernant les systèmes embarqués, nous proposons un premier pas vers une méthodologie qui explique comment utiliser notre approche dans l'analyse de traces d'exécution d'applications multimédia. Avant d'appliquer la recherche de motifs fréquents, les traces d'exécution doivent ˆetre traitées, et pour cela nous proposons plusieurs techniques de pré-traitement des traces. En plus, pour le post-traitement des motifs périodiques, nous proposons deux outils : un outil qui trouve des pairs de motifs en compétition ; et un outil de visualisation de CPC, appelé CPCViewer. Finalement, nous montrons que notre approche peut aider dans le débogage des applications multimédia à travers deux études de cas sur des traces d'exécution d'applications multimédia réelles.
8

Touzeau, Valentin. "Analyse statique de caches LRU : complexité, analyse optimale, et applications au calcul de pire temps d'exécution et à la sécurité". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM041.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre des systèmes critiques, la certification de programmes temps-réel nécessite de borner leur temps d'exécution.Les mémoires caches impactant fortement la latence des accès mémoires, les outils de calcul de pire temps d'exécution incluent des analyses de cache.Ces analyses visent à prédire statiquement si ces accès aboutissent à des cache-hits ou des cache-miss.Ce problème étant indécidable en général, les analyses de caches emploient des abstractions pouvant mener à des pertes de précision.Une hypothèse habituelle pour rendre le problème décidable consiste à supposer que toutes les exécutions du programme sont réalisables.Cette hypothèse est raisonnable car elle ne met pas en cause la validité de l'analyse: tous les véritables chemins d'exécutions du programme sont couverts par l'analyse.Néanmoins, la classification des accès mémoires reste difficile en pratique malgré cette hypothèse, et les analyses de cache efficaces utilisent des approximations supplémentaires.Cette thèse s'intéresse à la possibilité de réaliser des analyses de cache de précision optimale sous l'hypothèse que tous les chemins sont faisables.Les problèmes de classification d'accès mémoires en hits et miss y sont définis formellement et nous prouvons qu'ils sont NP-difficiles, voire PSPACE-difficiles, pour les politiques de remplacement usuelles (LRU, FIFO, NMRU et PLRU).Toutefois, si ces résultats théoriques justifient l'utilisation d'abstractions supplémentaires, ils n'excluent pas l'existence d'un algorithme efficace en pratique pour des instances courantes dans l'industrie.Les abstractions usuelles ne permettent pas, en général, de classifier tous les accès mémoires en Always-Hit et Always-Miss.Certains sont alors classifiés Unknown par l'analyse de cache, et peuvent aboutir à des cache-hits comme à des cache-miss selon le chemin d'exécution emprunté.Cependant, il est aussi possible qu'un accès soit classifié comme Unknown alors qu'il mène toujours à un hit (ou un miss), à cause d'une approximation trop grossière.Nous proposons donc une nouvelle analyse de cache d'instructions LRU, capable de classifier certains accès comme Definitely Unknown, une nouvelle catégorie représentant les accès pouvant mener à un hit ou à un miss.On est alors certain que la classification de ces accès est due au programme et à la configuration du cache, et pas à une approximation peu précise.Par ailleurs, cette analyse réduit le nombre d'accès candidats à une reclassification par des analyses plus précises mais plus coûteuses.Notre principale contribution est une analyse capable de produire une classification de précision optimale.Celle-ci repose sur une méthode appelée block focusing qui permet le passage à l'échelle en analysant les blocs de cache un par un.Nous profitons ainsi de l'analyse de l'analyse Definitely Unknown, qui réduit le nombre de candidats à une classification plus précise.Cette analyse précise produit alors une classification optimale pour un coût raisonnable (proche du coût des analyses usuelles May et Must).Nous étudions également l'impact de notre analyse exacte sur l'analyse de pipeline.En effet, lorsqu'une analyse de cache ne parvient pas à classifier un accès comme Always-Hit ou Always-Miss, les deux cas (hit et miss) sont envisagés par l'analyse de pipeline.En fournissant une classification plus précise des accès mémoires, nous réduisons donc la taille de l'espace d'états de pipeline exploré, et donc le temps de l'analyse.Par ailleurs, cette thèse étudie la possibilité d'utiliser l'analyse Definitely Unknown dans le domaine de la sécurité.Les mémoires caches peuvent être utilisées comme canaux cachés pour extraire des informations de l'exécution d'un programme.Nous proposons une variante de l'analyse Definitely Unknown visant à localiser la source de certaines fuites d'information
The certification of real-time safety critical programs requires bounding their execution time.Due to the high impact of cache memories on memory access latency, modern Worst-Case Execution Time estimation tools include a cache analysis.The aim of this analysis is to statically predict if memory accesses result in a cache hit or a cache miss.This problem is undecidable in general, thus usual cache analyses perform some abstractions that lead to precision loss.One common assumption made to remove the source of undecidability is that all execution paths in the program are feasible.Making this hypothesis is reasonable because the safety of the analysis is preserved when adding spurious paths to the program model.However, classifying memory accesses as cache hits or misses is still hard in practice under this assumption, and efficient cache analysis usually involve additional approximations, again leading to precision loss.This thesis investigates the possibility of performing an optimally precise cache analysis under the common assumption that all execution paths in the program are feasible.We formally define the problems of classifying accesses as hits and misses, and prove that they are NP-hard or PSPACE-hard for common replacement policies (LRU, FIFO, NRU and PLRU).However, if these theoretical complexity results legitimate the use of additional abstraction, they do not preclude the existence of algorithms efficient in practice on industrial workloads.Because of the abstractions performed for efficiency reasons, cache analyses can usually classify accesses as Unknown in addition to Always-Hit (Must analysis) or Always-Miss (May analysis).Accesses classified as Unknown can lead to both a hit or a miss, depending on the program execution path followed.However, it can also be that they belong to one of the Always-Hit or Always-Miss category and that the cache analysis failed to classify them correctly because of a coarse approximation.We thus designed a new analysis for LRU instruction that is able to soundly classify some accesses into a new category, called Definitely Unknown, that represents accesses that can lead to both a hit or a miss.For those accesses, one knows for sure that their classification does not result from a coarse approximation but is a consequence of the program structure and cache configuration.By doing so, we also reduce the set of accesses that are candidate for a refined classification using more powerful and more costly analyses.Our main contribution is an analysis that can perform an optimally precise analysis of LRU instruction caches.We use a method called block focusing that allows an analysis to scale by only analyzing one cache block at a time.We thus take advantage of the low number of candidates for refinement left by our Definitely Unknown analysis.This analysis produces an optimal classification of memory accesses at a reasonable cost (a few times the cost of the usual May and Must analyses).We evaluate the impact of our precise cache analysis on the pipeline analysis.Indeed, when the cache analysis is not able to classify an access as Always-Hit or Always-Miss, the pipeline analysis must consider both cases.By providing a more precise memory access classification, we thus reduce the state space explored by the pipeline analysis and hence the WCET analysis time.Aside from this application of precise cache analysis to WCET estimation, we investigate the possibility of using the Definitely Unknown analysis in the domain of security.Indeed, caches can be used as side-channel to extract some sensitive data from a program execution, and we propose a variation of our Definitely Unknown analysis to help a developer finding the source of some information leakage
9

Jahier, Erwan. "Analyse dynamique de programme : Mise en oeuvre automatisée d'analyseurs performants et spécifications de modèles d'exécution". Rennes, INSA, 2000. http://www.theses.fr/2000ISAR0009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nombreuses études montrent que la plus grande partie du coût de production d'un logiciel est générée lors de la phase de maintenance. Lors de cette phase, pour corriger des erreurs, pour optimiser des programmes, ou pour ajouter des fonctionnalités, il est essentiel de comprendre les programmes, et en particulier de comprendre leur comportement. Les analyseurs dynamiques d'exécutions tels que les profileurs, les moniteurs, ou les débogueurs, sont alors des outils indispensables. Cependant, ces outils d'analyse dynamique sont extrêmement coûteux à mettre en oeuvre : (1) d'abord, parce qu'il est généralement nécessaire de modifier le système de compilation utilisé, ce qui est fastidieux et pas toujours envisageable ; (2) en outre, les besoins en outils d'analyse de programmes varient d'un utilisateur à l'autre, en fonction de sa compétence, de son expérience du système de programmation utilisé, ainsi que de sa connaissance du code à maintenir ; (3) et enfin, parce que ces outils sont difficilement réutilisables. Il est donc souhaitable que chaque utilisateur puisse spécifier facilement les analyses dynamiques dont il a besoin. C'est pourquoi nous proposons dans cette thèse une architecture qui permet de faciliter leur mise en oeuvre. Cette architecture est basée : (1) sur une instrumentation systématique du programme qui produit une image très détaillée de l'exécution, la trace ; (2) sur un ensemble de primitives qui permettent d'analyser cette trace efficacement. Les analyseurs résultants ont des performances du même ordre de grandeur que leurs équivalents implémentés <<à la main>> par modification du système de compilation. Ils peuvent être mis en oeuvre par des utilisateurs sans connaissance particulière du système de compilation, qu'ils n'ont pas à modifier. Cette architecture leur permet d'implémenter les outils qui leur conviennent, adaptés à leur niveau de compréhension du code qu'ils sont chargés de maintenir. De plus, la structure modulaire de l'architecture proposée devrait permettre de faciliter la réutilisation de ces analyseurs pour d'autres systèmes. Notre propos est illustré dans le cadre du langage de programmation logique et fonctionnelle Mercury. Cependant, les concepts utilisés sont indépendants du paradigme de programmation. La trace sur laquelle nous basons la mise en oeuvre de nos analyseurs se doit de refléter le plus fidèlement possible la sémantique opérationnelle du langage. C'est pourquoi nous proposons également dans cette thèse un cadre de modélisation des traces d'exécutions basé sur une sémantique opérationnelle du langage à analyser. Cette spécification formelle de la trace nous permet de valider expérimentalement les traceurs et de prouver leur correction. Cette étude a été menée dans le cadre du langage de programmation logique Prolog
Several studies show that most of the software production cost is spent during the maintenance phase. During that phase, to locate bugs, to optimize programs, or to add new functionalities, it is essential to understand programs, and in particular to understand their runtime behavior. Dynamic analysis tools such as debuggers, profilers, or monitors, are very useful in that respect. However, such tools are expensive to implement because: (1) it generally requires to modify the compiling system, which is tedious and not always possible; (2) the needs in dynamic analysis tools vary from one user to another, depending on its competence, on its experience of the programming system, and on its knowledge of the code to maintain; (3) such tools are generally difficult to reuse. It is therefore desirable that each user is able to specify easily the dynamic analyses he needs. Hence, we propose an architecture that eases dynamic analysis tools implementation. This architecture is based on: (1) a systematic instrumentation of the program which gives a detailed image of the execution, the trace; (2) a set of trace processing primitives that lets one analyse the trace efficiently. The resulting analysers have performance of the same order of magnitude that their equivalent implemented ``by hand'' by modifying the compiling system. They can be implemented by programmers without any knowledge of the compiling system. This architecture let them implement the tools they need, adapted to their level of comprehension of the code they are in charge to maintain. Furthermore, the modular structure of the proposed architecture should ease the analysers reuse. This work has been held within the context of the logical and functional programming language Mercury. However, the concepts we used do not depend on the programming paradigm. The trace on which we base the implementation of our dynamic analysis tools should reflect as much as possible the runtime behavior of programs. Therefore, we also propose a framework to specify execution traces. This framework is based on an operational semantics of the language to analyse. Such formal specifications of the trace let us experimentally validate tracers, and prove their correctness. This work have been held within the context of the logical programming language Prolog
10

Bourgade, Roman. "Analyse du temps d'exécution pire-cas de tâches temps-réel exécutées sur une architecture multi-cœurs". Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00746073.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les défaillances des applications embarquées dans les systèmes temps-réel strict peuvent avoir des conséquences graves (catastrophes industrielles, mise en danger de vies humaines). La vérification des contraintes temporelles d'un système temps-réel strict dépend de la connaissance du temps d'exécution pire-cas des tâches constituant l'application embarquée. L'utilisation de processeurs multi-cœurs est l'un des moyens actuellement mis en œuvre afin d'améliorer le niveau de performances des systèmes embarqués. Cependant, la détermination du temps d'exécution pire-cas d'une tâche sur ce type d'architecture est rendue difficile par le partage de certaines ressources par les cœurs, et notamment le bus d'interconnexion permettant l'accès à la mémoire centrale. Ce document propose un nouveau mécanisme d'arbitrage de bus à deux niveaux permettant d'améliorer les performances des ensembles de tâches exécutés tout en garantissant le respect des contraintes temporelles. Les méthodes décrites permettent d'établir un niveau de priorité d'accès au bus optimal pour chacune des tâches exécutées. Elles permettent également de trouver une allocation optimale des tâches aux cœurs lorsqu'il y a plus de tâches à exécuter que de cœurs disponibles. Les résultats expérimentaux montrent une diminution significative des estimations de temps d'exécution pire-cas et de l'utilisation du processeur.
11

Bourgade, Roman. "Analyse du temps d'exécution pire-cas de tâches temps-réel exécutées sur une architecture multi-coeurs". Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1740/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les défaillances des applications embarquées dans les systèmes temps-réel strict peuvent avoir des conséquences graves (catastrophes industrielles, mise en danger de vies humaines). La vérification des contraintes temporelles d'un système temps-réel strict dépend de la connaissance du temps d'exécution pire-cas des tâches constituant l'application embarquée. L'utilisation de processeurs multi-cœurs est l'un des moyens actuellement mis en œuvre afin d'améliorer le niveau de performances des systèmes embarqués. Cependant, la détermination du temps d'exécution pire-cas d'une tâche sur ce type d'architecture est rendue difficile par le partage de certaines ressources par les cœurs, et notamment le bus d'interconnexion permettant l'accès à la mémoire centrale. Ce document propose un nouveau mécanisme d'arbitrage de bus à deux niveaux permettant d'améliorer les performances des ensembles de tâches exécutés tout en garantissant le respect des contraintes temporelles. Les méthodes décrites permettent d'établir un niveau de priorité d'accès au bus optimal pour chacune des tâches exécutées. Elles permettent également de trouver une allocation optimale des tâches aux cœurs lorsqu'il y a plus de tâches à exécuter que de cœurs disponibles. Les résultats expérimentaux montrent une diminution significative des estimations de temps d'exécution pire-cas et de l'utilisation du processeur
Software failures in hard real-time systems may have hazardous effects (industrial disasters, human lives endangering). The verification of timing constraints in a hard real-time system depends on the knowledge of the worst-case execution times (WCET) of the tasks accounting for the embedded program. Using multicore processors is a mean to improve embedded systems performances. However, determining worst-case execution times estimates on these architectures is made difficult by the sharing of some resources among cores, especially the interconnection bus that enables accesses to the shared memory. This document proposes a two-level arbitration scheme that makes it possible to improve executed tasks performances while complying with timing constraints. Described methods assess an optimal bus access priority level to each of the tasks. They also allow to find an optimal allocation of tasks to cores when tasks to execute are more numerous than available cores. Experimental results show a meaningful drop in worst-case execution times estimates and processor utilization
12

Colas, Damien. "Les annotations de chanteurs dans les matériels d'exécution des opéras de Rossini à Paris (1820-1860) : contribution à l'étude de la grammaire mélodique Rossinienne". Tours, 1997. http://www.theses.fr/1997TOUR2015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Contrairement à l'affirmation de Duprez (L'Art du chant, 1847) communément admise jusqu'au début du XXe siècle, Rossini ne fut pas le premier compositeur à abolir la liberté d'improvisation des interprètes. Sa musique vocale était au contraire pensée, tant dans sa phraséologie que dans ses symétries à grande échelle, de manière à être variée et ornée. Les matériels d'exécution des opéras de Rossini conservés à Paris contiennent quantité d'annotations manuscrites de la main des chanteurs qui n'ont jamais été étudiées jusqu'à présent. Le but de la thèse de doctorat a été double : d'une part rassembler ces données fragmentaires et disséminées pour les rendre accessibles au public (transcription des puntature des récitatifs, cadences, interpolations des cantabili et variations des reprises, vol. IV), et d'autre part en extraire de nouveaux éléments de réflexion quant au fonctionnement du langage mélodique rossinien. Cette seconde phase du travail a consisté en l'identification, le classement et la comparaison des éléments et formulaires ; du langage ornemental (vol. III). Il m'est apparu ainsi que les signaux de segmentation de la phrase mélodique sont des emplacements privilégiés d'ornementation, caractérisés par des modalités propres de variation mélodique. Si la cadence est une entité reconnue et si ses procédés de construction sont partiellement décrits dans les traités, j'ai individualisé la désinence ; signal de terminaison à l'échelle du vers mélodique, et les principes de variation qui lui sont relatifs - domaine à ma connaissance resté inexploré dans la littérature didactique de l'époque (chapitres 1 et 2). Pour le corps de la phrase, j'ai individualisé également trois procédés de base - l'ornementation locale ; l'interpolation et la substitution - et mis en évidence les différents archétypes de formula qui s'y rattachent (chap. 3). Cette étude paradigmatique de l'ornementation sera prochainement complétée par une approche syntagmatique
As opposed to the idea expressed by Duprez (L'Art du chant, 1847), currently acknowledged until the beginning of the 20th century, Rossini did not abolish the singers' liberty of improvisation. His vocal music was conceived, on the contrary, in its phraseology as much as in its use of symetries on a large scale, in order to be varied and ornamented. The role pans of Rossini’s operas which are conserved in Paris contain many manuscript annotations from singers' hands, which have not been studied yet. The aim of the ph. D. Thesis has been twofold: first, to gather this fragmentary data in order to make it available for the public (transcription of recitatives' puntature, cadenzas, + interpolations; in the cantabili and variations in the re-entries, vol. IV), and, second, to extract from this material new elements of reflection about the way Rossini an melodic language works. This second phase of work consisted in the identification, classification and comparision of the formulaic elements of the ornamental language (vol. Iii). It appeared to me that the sentence segmentation signals are privileged positions for the ornamentation, characterized by specific modalities of melodic variation. Beside the cadenza, whose construction processes are partially described in the treatises, I individualized the + desinence; ending signal on the scale of the melodic verse, and its principles of variation. As far as I know, these aspects remained unnoticed and unexplored in the didactic literature of that time (chapters 1 & 2). For the main body of the melodic sentence, I individualized three basic techniques of ornamentation - the + local; ornamentation, the interpolation and the substitution - as well as the different archetypes of formula they are built on (chap. 3). This paradigmatic study of ornamentation will be completed in the near future by a syntagmatic approach
13

Bousse, Erwan. "Execution trace management to support dynamic V&V for executable DSMLs". Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S082/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les techniques dynamiques de vérification et validation (V&V) de modèles sont nécessaires pour assurer la qualité des modèles exécutables. La plupart de ces techniques reposent sur la concept de trace d'exécution, une séquence contenant un ensemble d'informations sur une exécution. Par conséquent, pour permettre la V&V dynamique de modèles exécutables conformes à n'importe quel langage de modélisation dédié exécutable (LMDx), il est crucial de fournir des outils pour construire et manipuler toutes sortes de traces d'exécution. À cet effet, nous proposons d'abord une approche de clonage efficace de modèles afin de pouvoir construire des traces d'exécution génériques à base de clones. À l'aide d'un générateur aléatoire de métamodèles, nous montrons que cette approche passe à l'échelle avec seulement un léger surcoût lors de la manipulation de clones. Nous présentons ensuite une approche générative pour définir des métamodèles dédiés et multidimensionnels pour représenter des traces d'exécution, qui consiste à créer la structure de données spécifique aux traces d'exécution d'un LMDx donné. Ainsi, les traces d'exécution de modèles conformes à ce LMDx peuvent être capturées et manipulées efficacement de manière dédiée et à l'aide de différentes dimensions. Nous appliquons cette approche à deux techniques de V&V dynamiques existantes, à savoir la différentiation sémantique et le débogage omniscient. Nous montrons qu'un tel métamodèle de traces d'exécution généré fournit une bonne facilité d'usage et un bon passage à l'échelle pour la V&V dynamique au plus tôt pour n'importe quel LMDx. Nous avons intégré notre travail au sein du GEMOC Studio, un environnement de définition de langages et de modélisation issu de l'initiative internationale du même nom
Dynamic verification and validation (V&V) techniques are required to ensure the correctness of executable models. Most of these techniques rely on the concept of execution trace, which is a sequence containing information about an execution. Therefore, to enable dynamic V&V of executable models conforming to any executable domain-specific modeling language (xDSML), it is crucial to provide efficient facilities to construct and manipulate all kinds of execution traces. To that effect, we first propose a scalable model cloning approach to conveniently construct generic execution traces using model clones. Using a random metamodel generator, we show that this approach is scalable in memory with little manipulation overhead. We then present a generative approach to define multidimensional and domain-specific execution trace metamodels, which consists in creating the execution trace data structure specific to an xDSML. Thereby, execution traces of models conforming to this xDSML can be efficiently captured and manipulated in a domain-specific way. We apply this approach to two existing dynamic V&V techniques, namely semantic differencing and omniscient debugging. We show that such a generated execution trace metamodel provides good usability and scalability for dynamic early V&V support for any xDSML. Our work have been implemented and integrated within the GEMOC Studio, which is a language and modeling workbench resulting from the eponym international initiative
14

Mourou, Pascal. "Planification et contrôle d'exécution dans un monde multi-agent : copilote pour véhicule en circulation autoroutière". Toulouse 3, 1994. http://www.theses.fr/1994TOU30135.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La premiere partie de la these decrit les fondements de l'intelligence artificielle utilises pour donner une definition detaillee de l'intelligence artificielle distribuee. La notion de relation entre agents y est approfondie. La representation des connaissances de chaque agent et la facon dont un monde multi-agent peut etre simule y sont egalement decrites. Tout cela permet a l'auteur de caracteriser ce monde multi-agent particulier qui est celui de la circulation autoroutiere. La deuxieme partie presente differentes methodes de decision multi-agent permettant a un agent de prendre une decision en fonction des influences des autres agents. Elles permettent de mettre en uvre des regles de priorite qui servent a resoudre les conflits pour acceder a des ressources communes. Une evaluation theorique du cout de ces methodes est donnee. L'auteur propose d'utiliser celle qui est la plus avantageuse pour faire de la planification multi-agent, chaque agent produisant un plan d'actions en fonction des intentions a court terme des autres agents. La replanification selective permet a chaque agent de reagir efficacement lorsqu'une nouvelle information remet en cause une partie de son plan. Ces resultats sont utilises pour construire un pilote automatique pour vehicule en circulation autoroutiere. Il fournit les elements necessaires a la realisation d'un copilote pour la surveillance d'un vehicule pilote par un conducteur humain
15

Ruiz, Jordy. "Détermination de propriétés de flot de données pour améliorer les estimations de temps d'exécution pire-cas". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30285/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La recherche d'une borne supérieure au temps d'exécution d'un programme est une partie essentielle du processus de vérification de systèmes temps-réel critiques. Les programmes de tels systèmes ont généralement des temps d'exécution variables et il est difficile, voire impossible, de prédire l'ensemble de ces temps possibles. Au lieu de cela, il est préférable de rechercher une approximation du temps d'exécution pire-cas ou Worst-Case Execution Time (WCET). Une propriété cruciale de cette approximation est qu'elle doit être sûre, c'est-à-dire qu'elle doit être garantie de majorer le WCET. Parce que nous cherchons à prouver que le système en question se termine en un temps raisonnable, une surapproximation est le seul type d'approximation acceptable. La garantie de cette propriété de sûreté ne saurait raisonnablement se faire sans analyse statique, un résultat se basant sur une série de tests ne pouvant être sûr sans un traitement exhaustif des cas d'exécution. De plus, en l'absence de certification du processus de compilation (et de transfert des propriétés vers le binaire), l'extraction de propriétés doit se faire directement sur le code binaire pour garantir leur fiabilité. Toutefois, cette approximation a un coût : un pessimisme - écart entre le WCET estimé et le WCET réel - important entraîne des surcoûts superflus de matériel pour que le système respecte les contraintes temporelles qui lui sont imposées. Il s'agit donc ensuite, tout en maintenant la garantie de sécurité de l'estimation du WCET, d'améliorer sa précision en réduisant cet écart de telle sorte qu'il soit suffisamment faible pour ne pas entraîner des coûts supplémentaires démesurés. Un des principaux facteurs de surestimation est la prise en compte de chemins d'exécution sémantiquement impossibles, dits infaisables, dans le calcul du WCET. Ceci est dû à l'analyse par énumération implicite des chemins ou Implicit Path Enumeration Technique (IPET) qui raisonne sur un surensemble des chemins d'exécution. Lorsque le chemin d'exécution pire-cas ou Worst-Case Execution Path (WCEP), correspondant au WCET estimé, porte sur un chemin infaisable, la précision de cette estimation est négativement affectée. Afin de parer à cette perte de précision, cette thèse propose une technique de détection de chemins infaisables, permettant l'amélioration de la précision des analyses statiques (dont celles pour le WCET) en les informant de l'infaisabilité de certains chemins du programme. Cette information est passée sous la forme de propriétés de flot de données formatées dans un langage d'annotation portable, FFX, permettant la communication des résultats de notre analyse de chemins infaisables vers d'autres analyses. Les méthodes présentées dans cette thèse sont inclues dans le framework OTAWA, développé au sein de l'équipe TRACES à l'IRIT. Elles usent elles-mêmes d'approximations pour représenter les états possibles de la machine en différents points du programme
The search for an upper bound of the execution time of a program is an essential part of the verification of real-time critical systems. The execution times of the programs of such systems generally vary a lot, and it is difficult, or impossible, to predict the range of the possible times. Instead, it is better to look for an approximation of the Worst-Case Execution Time (WCET). A crucial requirement of this estimate is that it must be safe, that is, it must be guaranteed above the real WCET. Because we are looking to prove that the system in question terminates reasonably quickly, an overapproximation is the only acceptable form of approximation. The guarantee of such a safety property could not sensibly be done without static analysis, as a result based on a battery of tests could not be safe without an exhaustive handling of test cases. Furthermore, in the absence of a certified compiler (and tech- nique for the safe transfer of properties to the binaries), the extraction of properties must be done directly on binary code to warrant their soundness. However, this approximation comes with a cost : an important pessimism, the gap between the estimated WCET and the real WCET, would lead to superfluous extra costs in hardware in order for the system to respect the imposed timing requirements. It is therefore important to improve the precision of the WCET by reducing this gap, while maintaining the safety property, as such that it is low enough to not lead to immoderate costs. A major cause of overestimation is the inclusion of semantically impossible paths, said infeasible paths, in the WCET computation. This is due to the use of the Implicit Path Enumeration Technique (IPET), which works on an superset of the possible execution paths. When the Worst-Case Execution Path (WCEP), corresponding to the estimated WCET, is infeasible, the precision of that estimation is negatively affected. In order to deal with this loss of precision, this thesis proposes an infeasible paths detection technique, enabling the improvement of the precision of static analyses (namely for WCET estimation) by notifying them of the infeasibility of some paths of the program. This information is then passed as data flow properties, formatted in the FFX portable annotation language, and allowing the communication of the results of our infeasible path analysis to other analyses
16

Brocchini, Ilaria. "Trace et disparition dans l'oeuvre de Walter Benjamin". Paris 1, 2005. http://www.theses.fr/2005PA010656.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Il existe dans les écrits de Walter Benjamin parallèles au Passagen-Werk une théorie de la trace, théorie non finalisée et considérée par le philosophe lui-même comme le pendant de celle de l'aura. Cette théorie peut se résumer en une transfiguration de l'environnement humain en images anhistoriques et auratiques. Celui-ci devient ainsi trace de synthèse de ces images. L'architecture du XIX siècle est, pour Benjamin, un domaine privilégié pour l'étude de cette transfiguration. Selon Benjamin, un certain nombre d'artistes et architectes ont mis fin à cette transfiguration. Ils ont pensé leur travail comme une production et ils ont ainsi souligné l'ensemble des moyens qui le réalisent. Cette théorie de la trace en tant que transfiguration de l'environnement humain a été reprise postérieurement à Benjamin par d'autres théoriciens et philosophes et reste encore aujourd'hui pertinente. Le processus de transfiguration a été en particulier amplifié par la médiation marchande et le marketing
17

Ouedraogo, Marie-Françoise. "Extension of the canonical trace and associated determinants". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00725230.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est consacrée à l'étude de la trace canonique et de deux types de déterminants : d'une part un déterminant associé à la trace canonique sur une classe d'opérateurs pseudodifférentiels et d'autre part des déterminants associés à des traces régularisées. Dans une première partie, en dimension impaire, nous revisitons l'unicité de la trace canonique sur l'espace des opérateurs pseudodifférentiels classiques de classe impaire avant de l'étendre aux opérateurs log-polyhomogènes de classe impaire. Nous classifions les traces sur l'algèbre des opérateurs pseudodifférentiels classiques de classe impaire d'ordre zéro. Dans la 2e partie, nous établissons la localité de l'anomalie multiplicative du déterminant pondéré et du déterminant zeta. Ces résultats sont obtenus grâce à l'étude de la localité de la trace pondérée de l'opérateur L(A,B). Nous déduisons alors de ces résultats l'expression locale de ces anomalies multiplicatives en fonction du résidu noncommutatif. Enfin, nous classifions les déterminants multiplicatifs en utilisant la classification des traces sur les opérateurs pseudodifférentiels de classe impaire et d'ordre zéro en dimension impaire. Nous définissons aussi le déterminant symétrisé obtenu de la trace canonique aplliquée au logarithme symétrisé en dimension impaire. Nous montrons la multiplicativité de ce déterminant sous certaines restrictions sur les coupures spectrales des opérateurs.
18

Jalbert, Emmanuelle. "Le signifiant Zaïmph, trace évanescente en quête d'imaginaire(s) : analyse sémiotique de Salammbô de Flaubert". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ40551.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Jalbert, Emmanuelle. "Le signifiant Zaïmph : trace évanescente en quête d'imaginaire(s) : analyse sémiotique de Salammbô de Flaubert /". Thèse, Chicoutimi : Université du Québec à Chicoutimi, 1998. http://theses.uqac.ca.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Mémoire (M.E.L.)--Université du Québec à Chicoutimi, 1998.
Ce mémoire a été réalisé à Chicoutimi dans le cadre du programme de maîtrise en études littéraires de l'Université du Québec à Trois-Rivières extensionné à l'Université du Québec à Chicoutimi. CaQCU Bibliogr.: p. [128-130]. Document électronique également accessible en format PDF. CaQCU
20

Pietrek, Artur. "TIREX : une représentation textuelle intermédiaire pour un environnement d'exécution virtuel, échanger des informations du compilateur et d'analyse du programme". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00780232.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Certains environnements ont besoin de plusieurs compilateurs, par exemple un pour le système d'exploitation, supportant la norme C/C++ complète, et l'autre pour les applications, qui supporte éventuellement un sous-ensemble de la norme, mais capable de fournir plus de performance. Le maintien de plusieurs compilateurs pour une plateforme cible représente un effort considérable. Il est donc plus facile d'implémenter et de maintenir un seul outil responsable des optimisations particulières au processeur ciblé. Il nous faut alors un moyen de relier ces compilateurs à l'optimiseur, de préférence, en gardant au passage certaines structures de données internes aux compilateurs qui, soit prendraient du temps, soit seraient impossible à reconstruire à partir du code assembleur par exemple. Dans cette thèse, nous introduisons Tirex, une représentation textuelle intermédiaire pour échanger des informations de bas niveau, déjà dépendantes de la cible, entre les compilateurs, les optimiseurs et les autres outils de la chaîne de compilation. Notre représentation contient un flot d'instructions du processeur cible, mais garde également la structure explicite du programme et supporte la forme SSA (Static Single Assignment). Elle est facilement extensible et très flexible, ce qui permet de transmettre toute donnée jugée importante à l'optimiseur. Nous construisons Tirex par extension de MinIR, une représentation intermédiaire elle-même basée sur un encodage YAML des structures du compilateur. Nos extensions de Tirex comprennent: l'abaissement de la représentation au niveau du processeur cible, la conservation du flot de données du programme, ainsi que l'ajout d'informations sur les structures de boucles et les dépendances de données. Nous montrons que Tirex est polyvalent et peut être utilisé dans une variété d'applications différentes, comme par exemple un environnement d'exécution virtuel (VEE),et fournit une base forte pour un environnement d'analyse du programme. Dans le cadre d'un VEE, nous présentons un interprèteur de la forme SSA et un compilateur just-in-time (JIT). Nous montrons comment l'interprétation d'une représentation au niveau du processeur cible élimine la plupart des problèmes liés à l'exécution en mode mixte. Nous explorons également les questions liées à l'interprétation efficace d'une représentation de programme sous la forme SSA.
21

Ruch, Claude. "Analyse d'elements traces par fluorescence x : nouveaux developpements". Université Louis Pasteur (Strasbourg) (1971-2008), 1986. http://www.theses.fr/1986STR13107.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'analyse d'elements presents a l'etat de trace (concentration inferieures au mu nongg) connait un developpement important dans l'etude de l'environnement, en medecine et en biologie. Tous ces domaines requierent un nombre d'analyses eleve d'echantillons pour conduire a des resultats significatifs. Le nombre d'elements qui gagnent en importance ne cesse de croitre. La spectrometrie a dispersion d'energie repond parfaitement a ces besoins par une analyse multielementaire rapide, sans preparation chimique et d'une tres grande fiabilite. Une automatisation aisee permet des mesures de routine vingt quatre heures sur vingt quatre de quelques dizaines d'elements dans le domaine du n nongg
22

Bonneton, Nathalie. "Le développement des actes moteurs du jeune enfant : analyse comparée des gestes d'atteinte et de trace". Rouen, 2002. http://www.theses.fr/2002ROUEL420.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette recherche analyse la façon dont le système cognitivo-moteur des enfants âgés de 26 à 38 mois intègre les informations spatiales dans son plan d'action. Les caractéristiques spatio-temporelles sont analysées lorsque le mouvement est contraint par le plan horizontal (tâche graphique) et lorsqu'il est non contraint (tâche d'atteinte). Une troisième expérience évalue le rôle de la trace laissée par le stylo. Nous avons montré que la règle d'isochronie était disponible dès l'âge de 26 mois. Cependant, la régulation de la vitesse en fonction de la distance de la cible est sensible à la nature de la tâche et la position de la cible. La variation des paramètres de la programmation motrice en fonction de la direction de la cible en atteinte n'a pas été mise en évidence pour la tâche graphique. Par ailleurs, la comparaison des deux tâches pose la question du rôle des contraintes d' exécution du mouvement sur les processus de planification des trajectoires. La troisième expérience montre que la trace du stylo ne modifie pas la rectitude des trajectoires tracées et qu'elle constitue une charge cognitive chez l'enfant entre 35 et 38 mois pour la prise en compte des caractéristiques spatiales de la tâche
This study looks at the motor organization of pointing and drawing movements in the third year of age. Thirty seven children between the ages of 26 and 38 months performed a pointing and a drawing task on the horizontal plane. In both tasks, the child had to join two separate points. The location of the target was defined by its distance from the child (13 or 20 cm) and its direction with respect to the child's mid-body line (5 positions, ranging from 90° to the right and 90° to the left). A kinetic analysis can account for the organization of pointing and drawing movements during thie third year of life. First, these two tasks lead to conclude that similar mechanisms exist to integrate spatial information in a motor task : mean speed and amplitude of peak velocity are increased when the distance to cover is longer (isochrony). Second, our results show a differentiation between drawing and pointing concerning the planning of the trajectories. A third experience enables us to conclude that this differentiation is not attributable to the pen trace
23

Kamali, Yousef. "Filament-induced nonlinear fluorescence spectroscopy of trace gaseous pollutants in air". Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27545/27545.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Geneves, Sylvain. "Etude de performances sur processeurs multicoeur : environnement d'exécution événementiel efficace et étude comparative de modèles de programmation". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00842012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite des performances des serveurs de données en multi-cœur. Plus précisément nous nous intéressons au passage à l'échelle avec le nombre de cœurs. Dans un premier temps, nous étudions le fonctionnement interne d'un support d'exécution événementiel multi-cœur. Nous montrons tout d'abord que le faux-partage ainsi que les mécanismes de communications inter-cœurs dégradent fortement les performances et empêchent le passage à l'échelle des applications. Nous proposons alors plusieurs optimisations pour pallier ces comportements. Dans un second temps, nous comparons les performances en multi-cœur de trois serveurs Web chacun représentatif d'un modèle de programmation. Nous remarquons que les différences de performances observées entre les serveurs varient lorsque le nombre de cœurs augmente. Après une analyse approfondie des performances observées, nous identifions la cause de la limitation du passage à l'échelle des serveurs étudiés. Nous présentons une proposition ainsi qu'un ensemble de pistes pour lever cette limitation.
25

Pinto, Marcos Cunha. "Définition et utilisation de traces issues de plateformes virtuelles pour le débogage des MPSoCs". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM003/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La complexité croissante des systèmes multiprocesseurs sur puce (MPSoC) rend la vie plus difficile aux ingénieurs à cause des bugs et des inefficacités qui peuvent avoir un très large éventail de sources. L'interaction matériel / logiciel peut être l'une de ces sources, dont l'identification précoce et la résolution doivent être une priorité pour l'intégration rapide du système. Ainsi, en raison du grand nombre d'entrelacements d'exécution possibles, reproduire les conditions d'apparition d'une erreur ou d'un problème de performance est très difficile. Une approche de ce problème consiste à tracer une exécution et exploiter cette trace en faisant des analyses postérieures. L'obtention de traces à partir de vrai matériel va à l'encontre du processus de développement récent, désormais largement adoptés par l'industrie et l'académie, qui repose sur la simulation pour anticiper l'intégration matériel / logiciel. De nombreux systèmes multi-cœurs sur puce ont tendance à avoir des hiérarchies mémoire spécifiques, pour rendre le matériel plus simple et prévisible, au prix de voir percoler les contraintes matérielles vers les niveaux élevés de la pile logicielle. Malgré les efforts des ingénieurs, il est difficile d'assurer que toutes les mesures de prévention sont prises pour assurer une propriété donnée, comme l’absence de course lors de l'accès aux variables partagées ou la cohérence des données. Dans ce contexte, le processus de débogage est particulièrement pénible car il implique d'analyser des flux d'exécution parallèles. L'exécution d'un programme à plusieurs reprises est une partie intégrale du processus de débogage classique, mais le non-déterminisme du fait de l'exécution en parallèle conduit souvent à différents chemins d'exécution et donc des comportements différents.Cette thèse détaille les défis et les enjeux derrière la production et l'exploitation des traces "bien formés" dans un environnement de prototypage virtuel qui utilise la traduction binaire dynamique comme technique de simulation des processeurs. Ces traces contiennent des relations de causalité entre les événements qui permettent, d'une part, de simplifier l'analyse et, d'autre part, d'éviter de faire confiance à des horloges globales pour synchroniser les événements. Nous proposons un formalisme de définition des traces et détaillons sa mise en œuvre qui permet de rester non-intrusif aussi bien du point de vue matériel que logiciel. Nous utilisons ces traces pour aider à identifier et corriger les bugs sur les plateformes qui ont multiple cœurs. Nous présentons tout d'abord une méthode pour identifier les violations potentielles de cohérence de cache dans des plates-formes possédant des caches mais qui n'ont pas de matériel garantissant leur cohérence. Notre méthode identifie des violations potentielles qui peuvent apparaître au cours d'une exécution donnée en analysant les traces pour les deux stratégies d’écritures de cache: "write-through" et "write-back". Finalement, Nous nous intéressons à la simplification du processus de débogage des logiciels exécutés en parallèle sur MPSoC en utilisant les traces. Dans cet objectif, nous proposons un processus de débogage qui rejoue une exécution fautive en utilisant des traces. Nous détaillons une stratégie pour fournir des fonctionnalités d'exécution inverse pour éviter des temps de simulation élevé pendant une session de débogage.Nous avons mené des expériences en utilisant des applications parallèles s'exécutant sur acs{MPSoC} pour quantifier notre proposition et montrer que l'ensemble des stratégies d'analyse et de débogage complexes peuvent être mis en œvre par des traces, conduisant ainsi à des résultats déterministes en moins de temps que la simulation seule
The increasing complexity of Multiprocessor System on Chip (MPSoC) makes the engineers' life harder as bugs and inefficiencies can have a very broad range of sources. Hardware/software interactions can be one of these sources, their early identification and resolution being a priority for rapid system integration. Thus, due to the huge number of possible execution interleavings, reproducing the conditions of occurrence of a given error/performance issue is very difficult. One solution to this problem consists of tracing an execution for later analysis. Obtaining the traces from real platforms goes against the recent development processes, now broadly adopted by industry and academy, which rely on simulation to anticipate hardware/software integration. Multi/many core systems on chip tend to have specific memory hierarchies, to make the hardware simpler and predictable, at the cost of having the hardware percolate towards the high levels of the software stack. Despite the developers efforts, it is hard to make sure all preventive measures are taken to ensure a given property, such as lack of race conditions or data coherency. In this context, the debugging process is particularly tedious as it involves analyzing parallel execution flows. Executing a program many times is an integral part of the process in conventional debugging, but the non-determinism due to parallel execution often leads to different execution paths and different behaviors.This thesis details the challenges and issues behind the production and exploitation of "well formed" traces in a transaction accurate virtual prototyping environment that uses dynamic binary translation as processor simulation technology. These traces contain causality relations among events, which allow firstly to simplify the analysis, and secondly to avoid relying on timestamps. We propose a formalism to define the traces and detail an implementation to produce them in a non-intrusive manner. We use these traces to help identify and correct bugs on multi/many-core platforms. We firstly introduce a method to identify the potential cache coherence violations in non-cache-coherent platforms. Our method identifies potential violations which may occur during a given execution for write-through and write-back cache policies by analyzing the traces.We secondly focus on easing the debugging process of parallel software running on MPSoC using traces. To that aim, we propose a debugging process which replays a faulty execution using traces. We detail a strategy for providing forward and reverse execution features to avoid long simulation times during a debug session.We conducted experiments on MPSoC using parallel applications to quantify our proposal, and overall show that complex analysis and debug strategies can be implemented over traces, leading to deterministic results in shorter time than simulation alone
26

Louche, Laurence. "La phlorine, molécule trace pour le contrôle de l'authenticité des jus d'agrume". Aix-Marseille 3, 2002. http://www.theses.fr/2002AIX30092.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un composé phénolique, le 3,5-dihydroxyphényl-β-D-glucopyranoside ou phlorine, naturellement présent dans la peau des Citrus a été obtenu à partir d'un extrait aqueux de peaux d'oranges. Sa structure moléculaire a été confirmée par RMN du proton et du carbone et par spectrométrie de masse. L'extraction de la phlorine en fonction du temps et de la température (25 et 50ʿC) de peaux d'oranges sur deux variétés : Navel Late et Valencia a été abordée. Elle a été quantifiée dans les différentes parties de fruits de ces deux variétés. Une étude sur 45 espèces et variétés de Citrus a permis de doser la phlorine dans le jus et la peau afin de déterminer des plages de valeur en fonction des groupes de fruits. Les analyses multidimensionnelles permettant de différencier les différentes espèces d'oranges, nous avons constitué une banque de données (teneurs en phlorine, sucres, flavonoides) utilisable pour l'authentification de la qualité des concentrés
A phenolic compound, 3,5-dihydroxyphenyl-β-D-glucopyranoside, known as phlorin has been isolated from aqueous extracts of orange peel. Its structural formula was confirmed by 1H and 13C NMR spectroscopies and mass chromatography. Aqueous extracts of orange peel were followed during more than 2 days at two temperatures (25 and 50ʿC) showing increasing content of phlorin in water following time. The phlorin content was determined in various parts of 2 orange varieties, Navel Late and Valencia. Phlorin has been searched in 45 species and varieties of Citrus and determined in juices and aqueous peel extracts. Multivariate analyses on several data (phlorin, sugars, flavonoi͏̈ds) were used to determine analytical profiles for each orange species and concentrate supplier
27

Vorapalawut, Nopparat. "Advances in trace element analysis of petroleum samples : insight into the speciation". Pau, 2011. http://www.theses.fr/2011PAUU3001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’arrivée de la spectrométrie de masse plasma à couplage inductif (ICP MS) a largement contribué à l’analyse multiélémentaire fiable et rapide d’échantillons pétroliers. Toutefois, les problèmes intrinsèques liés à l’instabilité du plasma, le dépôt du carbone sur les cônes et les interférences dues aux ions polyatomiques de carbone restent omniprésents. L’objectif de ce travail a été d’adresser plusieurs problèmes d’analyse des matrices pétrolières impossibles à résoudre par l’ICP MS quadripolaire. Il s’agit du dosage du soufre et du silicium, de l’analyse multiélémentaire simultanée à l’état des traces (ng g-1), ainsi que de l’analyse des formes chimiques des éléments présents. La méthode développée pour le dosage du soufre dans l’essence a été basée sur l’introduction directe d’une microémulsion dans un ICP. La quantification du soufre a été effectuée par la spectrométrie d’émission plasma (ICP AES) par calibration externe ce qui augmentait le débit d’analyses. La méthode a été appliquée à la quantification du soufre dans des échantillons de gasoil originaires de diverses stations service de Thaïlande. Les problèmes liés aux interférences spectrales ont été atténués par l’utilisation d’un spectromètre de masse à secteurs optimisé pour le dosage simultané de Ag, Al, Ba, Ca, Cd, Co, Cr, Cu, Fe, Mg, Mn, Mo, Ni, Pb, Sn, Ti, and V. Les interférences isobariques dues à la matrice riche en carbone ont été éliminées à la résolution de 4000 permettant d’obtenir les limites de détection de l’ordre de pg g-1(typiquement un ordre de grandeur plus bas qu’avec un ICP MS quadripolaire). Une méthode d’analyse multiélémentaire de routine a été développée, validée par l’analyse des matériaux de référence et appliquée à l’analyse de condensats de gaz et d’huiles brutes. Une autre méthode s’appuyant sur la microinjection dans un flux continu (µFIA) a été développée pour le dosage du silicium avec la limite de détection de 1 ng g-1. Les effets de matrice et de la forme chimique de silicium sur la sensibilité ont été étudiés et réduits par le biais d’une chambre de nébulisation chauffée et une dilution de l’échantillon. L’ICP MS à ablation laser a été développée pour l’analyse multiélémentaire d’huiles brutes et d’asphaltenes. Une plaque de silice a été imprégnée pendant 30 min d’une solution d’échantillon et analysée par LA- ICP HR MS. L’absence des interférences polyatomiques dues au carbone et de l’effet de matrices a permis la quantification par calibration externe. Les limites de détection de l’ordre de ng g-1 ont été obtenues. La méthode a été validée par l’analyse de matériaux certifiés de référence (NIST 1084a et 1085b) et appliquée à l’analyse de plusieurs huiles brutes et asphaltenes. L’analyse des formes chimiques Co, Cr, Fe, Ni, S, Si, V and Zn dans des huiles brutes et des RSV a été optimisée par le couplage de la microchromatographie de perméation sur gel utilisant trois colonnes en série avec les limites d’exclusion croissantes (5. 000, 400. 000 et 2. 000. 000) avec un l’ICP MS haute résolution (R = 4. 000). La méthode a permis l’acquisition des chromatogrammes avec une haute sensibilité compétitive aux méthodes existantes, montrant la morphologie des chromatogrammes en fonction d’élément et de l’origine géographique des échantillons. Les chromatographies d’exclusion stérique et de phase normale ont été proposées pour l’évaluation de la pureté des étalons de composés organiques du silicium, de leur réactivité avec les différentes matrices pétrolières et de la spéciation du silicium
The advent of inductively coupled plasma quadrupole mass spectrometry (ICP MS) largely contributed to reliable and fast multielement trace analysis of petroleum samples but the inherent problems related to plasma instability, carbon deposition on the sampler and skimmer cones and carbon-related polyatomic interferences are omnipresent. The goal of this work was to address several analytical tasks impossible to be successfully handled by ICP quadrupole ICP MS. They include the determination of non-metals, such as sulphur and silicon, simultaneous multielement trace analysis at the low ng g-1 levels, and insight into the molecular binding of the trace elements present. The method developed for the sulphur determination in gasoline was based on the formation of microemulsion introduced directly into the ICP. Quantification was carried out by ICP AES using external calibration which allowed high throughput analysis. The developed method was applied for total sulphur analysis in diesel samples from various gas stations in Thailand. Problems related to spectral interferences were alleviated by the use of a double-focusing sector field ICP MS optimized for the direct simultaneous determination of Ag, Al, Ba, Ca, Cd, Co, Cr, Cu, Fe, Mg, Mn, Mo, Ni, Pb, Sn, Ti, and V. Polyatomic interferences originating from the carbon-rich matrix were completely eliminated at a resolution of 4000 allowing the detection limits at the low pg g−1 level to be obtained (typically one order of magnitude lower than using a quadrupole ICP MS). A method for the routine comprehensive trace element analysis of xylene solutions of oil samples using external calibration was developed, validated by the analysis of CRMs and applied to the analysis of gas condensate and oil samples. Another method based on the micro-flow injection total consumption sample introduction was developed for the silicon determination allowing the detection limits down to 1 ng g-1. The effects of the sample matrix and of the chemical form of silicon on the sensitivity were investigated and alleviated when necessary by heating the spray chamber and sample dilution. Laser ablation-ICP-SF MS was developed for direct multielement analysis in crude oils and asphaltenes. A silica gel plate was impregnated for 30 min with a sample solution and analyzed by laser ablation-ICP MS. Carbon-related polyatomic interferences and matrix suppression effects were absent enabling quantitation by external calibration. The detection limits were in the low ng g−1 range. The method was validated by the analysis of NIST 1084a and 1085b certified reference materials (wear metals in lubricating oils) and applied to the analysis of crude oil and asphaltene samples. An insight into the chemical forms of Co, Cr, Fe, Ni, S, Si, V and Zn present in crude oil and oil vacuum distillation residue was gained by the coupling of microchromatography using permeation through gels with the increasing exclusion limit (5000, 400 000 and 20 000 000 Da) with high resolution (R = 4000) ICP MS. The method allowed the acquisition of chromatograms with high sensitivity competitive to the existing methods, showing element- and sample origin-dependent morphology. Normal phase HPLC-ICP MS and size-exclusion ICP MS were proposed to evaluate the purity of the silicon standard compounds, their reactivity with different petroleum-related matrices and speciation of silicon
28

Branchu, Colette. "Archéo-analyse de l'oeuvre : Le Petit Prince : l'écriture d'un secret ou la trace secrète d'une écriture hiéroglyphique". Phd thesis, Université Paul Valéry - Montpellier III, 2011. http://tel.archives-ouvertes.fr/tel-00804970.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le conte Le Petit Prince, commence par " Lorsque j'avais six ans ". Ces mots sont précédés d'une image montrant l'enlacement d'un serpent boa autour d'une bête fauve. Or les premiers mots d'une oeuvre ainsi que l'illustration qui les précède en indiquent le déroulement et permet de prévoir la fin. Ces deux notations signalent que ce conte est l'histoire d'un enfant de six ans qui se pose deux questions clés: que signifient ces enlacements à la fois merveilleux et inquiétants dont il reproduit l'image et en quoi leur dynamique le concerne-t-il? Il pose ainsi la question " d'où je viens ? " suivi de son corollaire naturel " suis-je concerné par de telles pulsions ?". À travers la métaphore du Petit Prince, Saint-Exupéry prend appui sur sa propre expérience. Entre sa sixième et septième année il vécut un important traumatisme qui lui permit d'accéder seul, à la connaissance du sexuel existant entre les moutons et les fleurs, entre les hommes et les femmes, permettant à l'humanité de se perpétuer. L'universalité de la question des origines permet une traduction dans toutes les langues, sans que ce conte perde une once de sa pertinence. L'oeuvre Le Petit Prince s'inscrit dès lors et en quelque sorte comme une nouvelle écriture de la Genèse, mais d'une genèse dégagée de tout contexte religieux, en somme d'une genèse laïque donc totalement universelle. Cette Genèse " universelle " est à entendre au sens métonymique du terme. Genèse qu'Antoine de Saint-Exupéry déploie au pied de la lettre dans le Cosmos, inventant une cosmogonie pour tous les Petits Princes du Monde qui osent se demander, dans une profonde solitude, ce que ça fout ensemble ces drôles d'adultes...
29

Knüpfer, Andreas. "Advanced Memory Data Structures for Scalable Event Trace Analysis". Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2009. http://nbn-resolving.de/urn:nbn:de:bsz:14-ds-1239979718089-56362.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The thesis presents a contribution to the analysis and visualization of computational performance based on event traces with a particular focus on parallel programs and High Performance Computing (HPC). Event traces contain detailed information about specified incidents (events) during run-time of programs and allow minute investigation of dynamic program behavior, various performance metrics, and possible causes of performance flaws. Due to long running and highly parallel programs and very fine detail resolutions, event traces can accumulate huge amounts of data which become a challenge for interactive as well as automatic analysis and visualization tools. The thesis proposes a method of exploiting redundancy in the event traces in order to reduce the memory requirements and the computational complexity of event trace analysis. The sources of redundancy are repeated segments of the original program, either through iterative or recursive algorithms or through SPMD-style parallel programs, which produce equal or similar repeated event sequences. The data reduction technique is based on the novel Complete Call Graph (CCG) data structure which allows domain specific data compression for event traces in a combination of lossless and lossy methods. All deviations due to lossy data compression can be controlled by constant bounds. The compression of the CCG data structure is incorporated in the construction process, such that at no point substantial uncompressed parts have to be stored. Experiments with real-world example traces reveal the potential for very high data compression. The results range from factors of 3 to 15 for small scale compression with minimum deviation of the data to factors &gt; 100 for large scale compression with moderate deviation. Based on the CCG data structure, new algorithms for the most common evaluation and analysis methods for event traces are presented, which require no explicit decompression. By avoiding repeated evaluation of formerly redundant event sequences, the computational effort of the new algorithms can be reduced in the same extent as memory consumption. The thesis includes a comprehensive discussion of the state-of-the-art and related work, a detailed presentation of the design of the CCG data structure, an elaborate description of algorithms for construction, compression, and analysis of CCGs, and an extensive experimental validation of all components
Diese Dissertation stellt einen neuartigen Ansatz für die Analyse und Visualisierung der Berechnungs-Performance vor, der auf dem Ereignis-Tracing basiert und insbesondere auf parallele Programme und das Hochleistungsrechnen (High Performance Computing, HPC) zugeschnitten ist. Ereignis-Traces (Ereignis-Spuren) enthalten detaillierte Informationen über spezifizierte Ereignisse während der Laufzeit eines Programms und erlauben eine sehr genaue Untersuchung des dynamischen Verhaltens, verschiedener Performance-Metriken und potentieller Performance-Probleme. Aufgrund lang laufender und hoch paralleler Anwendungen und dem hohen Detailgrad kann das Ereignis-Tracing sehr große Datenmengen produzieren. Diese stellen ihrerseits eine Herausforderung für interaktive und automatische Analyse- und Visualisierungswerkzeuge dar. Die vorliegende Arbeit präsentiert eine Methode, die Redundanzen in den Ereignis-Traces ausnutzt, um sowohl die Speicheranforderungen als auch die Laufzeitkomplexität der Trace-Analyse zu reduzieren. Die Ursachen für Redundanzen sind wiederholt ausgeführte Programmabschnitte, entweder durch iterative oder rekursive Algorithmen oder durch SPMD-Parallelisierung, die gleiche oder ähnliche Ereignis-Sequenzen erzeugen. Die Datenreduktion basiert auf der neuartigen Datenstruktur der &quot;Vollständigen Aufruf-Graphen&quot; (Complete Call Graph, CCG) und erlaubt eine Kombination von verlustfreier und verlustbehafteter Datenkompression. Dabei können konstante Grenzen für alle Abweichungen durch verlustbehaftete Kompression vorgegeben werden. Die Datenkompression ist in den Aufbau der Datenstruktur integriert, so dass keine umfangreichen unkomprimierten Teile vor der Kompression im Hauptspeicher gehalten werden müssen. Das enorme Kompressionsvermögen des neuen Ansatzes wird anhand einer Reihe von Beispielen aus realen Anwendungsszenarien nachgewiesen. Die dabei erzielten Resultate reichen von Kompressionsfaktoren von 3 bis 5 mit nur minimalen Abweichungen aufgrund der verlustbehafteten Kompression bis zu Faktoren &gt; 100 für hochgradige Kompression. Basierend auf der CCG_Datenstruktur werden außerdem neue Auswertungs- und Analyseverfahren für Ereignis-Traces vorgestellt, die ohne explizite Dekompression auskommen. Damit kann die Laufzeitkomplexität der Analyse im selben Maß gesenkt werden wie der Hauptspeicherbedarf, indem komprimierte Ereignis-Sequenzen nicht mehrmals analysiert werden. Die vorliegende Dissertation enthält eine ausführliche Vorstellung des Stands der Technik und verwandter Arbeiten in diesem Bereich, eine detaillierte Herleitung der neu eingeführten Daten-strukturen, der Konstruktions-, Kompressions- und Analysealgorithmen sowie eine umfangreiche experimentelle Auswertung und Validierung aller Bestandteile
30

Colin, Alexis. "De la collecte de trace à la prédiction du comportement d'applications parallèles". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS020.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les supports d'exécution sont couramment utilisés par les applications parallèles afin d'exploiter efficacement les ressources matérielles sous-jacentes. Un support d'exécution dissimule la complexité de la gestion du matériel et expose aux développeurs d'applications une interface de haut niveau. À cette fin, il prend des décisions en s'appuyant sur des heuristiques qui estiment le comportement futur de l'application. Nous proposons Pythia, une bibliothèque utilisable comme oracle capable de prédire le comportement futur d'une application afin que les supports d'exécutions puissent prendre des décisions plus éclairées. Pythia s'appuie sur la nature déterministe de nombreuses applications HPC : en enregistrant une trace d'exécution, Pythia capture le comportement général de l'application. Cette trace est ensuite utilisée lors des exécutions suivantes de l'application et le support d'exécution peut demander des prédictions sur le comportement futur du programme. Nous évaluons Pythia sur 13 applications MPI et nous montrons que Pythia peut prédire précisément le futur de la plupart de ces applications, même en variant la taille des données. Nous montrons comment les prédictions de Pythia peuvent guider l'optimisation d'un support d'exécution en implémentant une stratégie de parallélisme adaptatif dans le support d'exécution GNU OpenMP. L'évaluation montre que, grâce aux prédictions de Pythia cette stratégie adaptative peut réduire le temps d'exécution d'une application jusqu'à 38%
Runtime systems are commonly used by parallel applications in order to efficiently exploit the underlying hardware resources. A runtime system hides the complexity of the management of the hardware and exposes a high-level interface to application developers. To this end, it makes decisions by relying on heuristics that estimate the future behavior of the application. We propose Pythia, a library that serves as an oracle capable of predicting the future behavior of an application, so that the runtime system can make more informed decisions. Pythia builds on the deterministic nature of many HPC applications: by recording an execution trace, Pythia captures the application main behavior. The trace can be provided for future executions of the application, and a runtime system can ask for predictions of future program behavior. We evaluate Pythia on 13 MPI applications and show that Pythia can accurately predict the future of most of these applications, even when varying the problem size. We demonstrate how Pythia predictions can guide a runtime system optimization by implementing an adaptive thread parallelism strategy in GNU OpenMP runtime system. The evaluation shows that, thanks to Pythia prediction, the adaptive strategy reduces the execution time of an application by up to 38%
31

Knüpfer, Andreas. "Advanced Memory Data Structures for Scalable Event Trace Analysis". Doctoral thesis, Technische Universität Dresden, 2008. https://tud.qucosa.de/id/qucosa%3A23611.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The thesis presents a contribution to the analysis and visualization of computational performance based on event traces with a particular focus on parallel programs and High Performance Computing (HPC). Event traces contain detailed information about specified incidents (events) during run-time of programs and allow minute investigation of dynamic program behavior, various performance metrics, and possible causes of performance flaws. Due to long running and highly parallel programs and very fine detail resolutions, event traces can accumulate huge amounts of data which become a challenge for interactive as well as automatic analysis and visualization tools. The thesis proposes a method of exploiting redundancy in the event traces in order to reduce the memory requirements and the computational complexity of event trace analysis. The sources of redundancy are repeated segments of the original program, either through iterative or recursive algorithms or through SPMD-style parallel programs, which produce equal or similar repeated event sequences. The data reduction technique is based on the novel Complete Call Graph (CCG) data structure which allows domain specific data compression for event traces in a combination of lossless and lossy methods. All deviations due to lossy data compression can be controlled by constant bounds. The compression of the CCG data structure is incorporated in the construction process, such that at no point substantial uncompressed parts have to be stored. Experiments with real-world example traces reveal the potential for very high data compression. The results range from factors of 3 to 15 for small scale compression with minimum deviation of the data to factors &gt; 100 for large scale compression with moderate deviation. Based on the CCG data structure, new algorithms for the most common evaluation and analysis methods for event traces are presented, which require no explicit decompression. By avoiding repeated evaluation of formerly redundant event sequences, the computational effort of the new algorithms can be reduced in the same extent as memory consumption. The thesis includes a comprehensive discussion of the state-of-the-art and related work, a detailed presentation of the design of the CCG data structure, an elaborate description of algorithms for construction, compression, and analysis of CCGs, and an extensive experimental validation of all components.
Diese Dissertation stellt einen neuartigen Ansatz für die Analyse und Visualisierung der Berechnungs-Performance vor, der auf dem Ereignis-Tracing basiert und insbesondere auf parallele Programme und das Hochleistungsrechnen (High Performance Computing, HPC) zugeschnitten ist. Ereignis-Traces (Ereignis-Spuren) enthalten detaillierte Informationen über spezifizierte Ereignisse während der Laufzeit eines Programms und erlauben eine sehr genaue Untersuchung des dynamischen Verhaltens, verschiedener Performance-Metriken und potentieller Performance-Probleme. Aufgrund lang laufender und hoch paralleler Anwendungen und dem hohen Detailgrad kann das Ereignis-Tracing sehr große Datenmengen produzieren. Diese stellen ihrerseits eine Herausforderung für interaktive und automatische Analyse- und Visualisierungswerkzeuge dar. Die vorliegende Arbeit präsentiert eine Methode, die Redundanzen in den Ereignis-Traces ausnutzt, um sowohl die Speicheranforderungen als auch die Laufzeitkomplexität der Trace-Analyse zu reduzieren. Die Ursachen für Redundanzen sind wiederholt ausgeführte Programmabschnitte, entweder durch iterative oder rekursive Algorithmen oder durch SPMD-Parallelisierung, die gleiche oder ähnliche Ereignis-Sequenzen erzeugen. Die Datenreduktion basiert auf der neuartigen Datenstruktur der &quot;Vollständigen Aufruf-Graphen&quot; (Complete Call Graph, CCG) und erlaubt eine Kombination von verlustfreier und verlustbehafteter Datenkompression. Dabei können konstante Grenzen für alle Abweichungen durch verlustbehaftete Kompression vorgegeben werden. Die Datenkompression ist in den Aufbau der Datenstruktur integriert, so dass keine umfangreichen unkomprimierten Teile vor der Kompression im Hauptspeicher gehalten werden müssen. Das enorme Kompressionsvermögen des neuen Ansatzes wird anhand einer Reihe von Beispielen aus realen Anwendungsszenarien nachgewiesen. Die dabei erzielten Resultate reichen von Kompressionsfaktoren von 3 bis 5 mit nur minimalen Abweichungen aufgrund der verlustbehafteten Kompression bis zu Faktoren &gt; 100 für hochgradige Kompression. Basierend auf der CCG_Datenstruktur werden außerdem neue Auswertungs- und Analyseverfahren für Ereignis-Traces vorgestellt, die ohne explizite Dekompression auskommen. Damit kann die Laufzeitkomplexität der Analyse im selben Maß gesenkt werden wie der Hauptspeicherbedarf, indem komprimierte Ereignis-Sequenzen nicht mehrmals analysiert werden. Die vorliegende Dissertation enthält eine ausführliche Vorstellung des Stands der Technik und verwandter Arbeiten in diesem Bereich, eine detaillierte Herleitung der neu eingeführten Daten-strukturen, der Konstruktions-, Kompressions- und Analysealgorithmen sowie eine umfangreiche experimentelle Auswertung und Validierung aller Bestandteile.
32

Ahumada, Bustamante Guido. "Analyse harmonique sur l'espace des chemins d'un arbre". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37611090m.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Berger, Gilles. "Etude expérimentale des premiers stades de l'altération hydrothermale de verres basaltiques et d'olivines : comportement des éléments en trace". Toulouse 3, 1987. http://www.theses.fr/1987TOU30201.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'etude experimentale montre que l'alteration d'un verre basaltique par de l'eau de mer entre 200**(o)c et 320**(o)c et controlee par un processus de diffusion a deux etapes : un premier processus de diffusion a l'etat solide puis une diffusion des especes en solution qui vont impregner le gel de silice poreux. On etudie aussi les coefficients de distribution de li,rb et cs entre 150**(o)c et 260**(o)c entre des solutions de type eau de mer et trois silicates caracteristique de l'alteration hydrothermale marine
34

Neami, Abdulwahid al. "Analyse quantitative des impuretes presentes a l'etat de traces dans cdte". Strasbourg 1, 1988. http://www.theses.fr/1988STR13206.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Assal, Marouane. "Analyse spectrale des systèmes d'opérateurs h-pseudodifférentiels". Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0586/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce travail, nous nous intéressons à l’analyse spectrale des systèmes d’opérateurs pseudodifférentiels semi-classiques. Dans la première partie, nous étudions la généralisation du théorème d’Egorov en temps longs dans le cas où l’Hamiltonien quantique qui génère l’évolution en temps et l’observable quantique initiale sont deux opérateurs pseudodifférentiels semiclassiques associés à des symboles à valeurs matricielles. Sous une condition d’hyperbolicité sur le symbole principal de l’Hamiltonien qui assure l’existence des projecteurs semi-classiques, et pour une classe d’observables "semi-classiquement" diagonales par blocs par rapport à ces projecteurs, nous démontrons un théorème de type Egorov valable pour un temps long d’ordre log(h-1) connu comme le temps d’Ehrenfest. Ici h 0 est le paramètre semi-classique. Dans la deuxième partie, nous nous intéressons à la théorie spectrale et la théorie de la diffusion pour des systèmes d’opérateurs pseudodifférentiels auto-adjoints. Nous développons une approche stationnaire pour l’étude de la fonction de décalage spectral associée à une paire d’opérateurs de Schrödinger semi-classiques à potentiels matriciels. Une asymptotique de type Weyl avec reste optimal sur la fonction de décalage spectral est établie, et sous l’hypothèse d’existence d’une fonction fuite scalaire, un développement asymptotique complet en puissancesde h au sens fort sur sa dérivée est obtenu. Ce dernier résultat est une généralisation au cas matriciel d’un résultat de Robert et Tamura établi dans le cas scalaire près des énergies non-captives. Notre méthode indépendante du temps nous permet de traiter certains potentiels avec des croisements des valeurs propres
In this work, we are interested in the spectral analysis of systems of semiclassical pseudodifferentialoperators. In the first part, we study the extension of the long time semiclassical Egorovtheorem in the case where the quantum Hamiltonian which generates the time evolution andthe initial quantum observable are two semiclassical pseudodifferential operators with matrixvaluedsymbols. Under an hyperbolicity condition on the principal symbol of the Hamiltonianwhich ensures the existence of the semiclassical projections, and for a class of observable thatare "semi-classically" block-diagonal with respect to these projections, we prove an Egorov theoremvalid in a large time interval of order log(h-1) known as the Ehrenfest time. Here h & 0is the semiclassical parameter.In the second part, we are interested in the spectral and scattering theories for self-adjointsystems of pseudodifferential operators. We develop a stationary approach for the study of thespectral shift function (SSF) associated to a pair of self-adjoint semiclassical Schrödinger operatorswith matrix-valued potentials. We prove a Weyl-type asymptotics with sharp remainderestimate on the SSF, and under the existence of a scalar escape function, a pointwise completeasymptotic expansion on its derivative. This last result is a generalisation in the matrix-valuedcase of a result of Robert and Tamura established in the scalar case near non-trapping energies.Our time-independent method allows us to treat certain potentials with energy-level crossings
36

Savignan, Lionel. "Distribution d’éléments trace dans les sols de Nouvelle-Aquitaine et suivi de contaminants émergents (Ag, Pd, Pt, Rh)". Thesis, Pau, 2020. http://www.theses.fr/2020PAUU3039.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour objectif d’évaluer la distribution spatiale et les origines d’éléments trace anciens et émergents dans les sols de Nouvelle-Aquitaine en se basant sur le Réseau de mesures de la qualité des sols (RMQS). En premier lieu, six éléments trace anciens ont été ciblés (As, Cd, Cu, Cr, Ni, Pb), leur distribution spatiale a été estimée à partir des analyses de 356 échantillons issus de la première campagne RMQS. Les concentrations médianes régionales retrouvées sont proches des valeurs nationales. La comparaison entre les vibrisses régionales et nationales comme valeurs seuils d’anomalie a montré des concentrations régionales anomaliques. A l’aide de système d’information géographique et géostatistiques les origines des éléments trace étudiés dans les sols ont pu être identifiées. L’arsenic a des origines mixtes, géogène et anthropique, liées principalement aux activités minières. Cd, Cr et Ni sont principalement d’origine géogène à l’échelle régionale. Cu a une origine principalement anthropique de par son utilisation comme fongicide pour la viticulture. Pb a également des origines anthropiques liées aux activités minières, aux essences plombées et aux activités cynégétiques. Dans un second temps, 4 éléments émergents (Ag, Pd, Pt, Rh) ont été étudiés à partir de 35 échantillons de sol prélevés durant la deuxième campagne RMQS. Les concentrations retrouvées indiquent que ces sols sont faiblement contaminés par ces éléments. Les analyses statistiques montrent que, d’une part Ag, Pb, Rh et d’autre part Pd et Pt sont corrélés entre eux. L’analyse de la distribution spatiale, avec le croisement d’informations géographiques, géologiques, et agricoles, a montré que les émissions automobiles ne seraient pas une source majeure de PPGE dans les sols d’occupations forestières et agricoles. La distribution de Pd et Pt serait plutôt d’origine naturelle avec de possibles contributions anthropique provenant de : 1) la dispersion longue distance des PPGE par les particules en suspensions dans l’atmosphère ; 2) des intrants, notamment les fertilisants minéraux, pour les sols agricoles. L’origine de Ag et Rh serait principalement aussi d’origine naturelle et les valeurs les plus élevées viendraient de la proximité de gisements et exploitation minière de Ag et Pb
The aim of this thesis is to assess the spatial distribution and origins of old and emerging trace elements in soils of the Nouvelle-Aquitaine region based on the French soil monitoring network (RMQS). Firstly, six old trace elements were targeted (As, Cd, Cu, Cr, Ni, Pb), their spatial distribution was estimated from the analyses of 356 samples from the first RMQS campaign. The median regional concentrations found are close to the national values. The comparison between the regional and national whisker values as anomaly threshold values showed anomalous regional concentrations. With the help of geostatistics and geographical information systems, the origins of the trace elements studied in the soils could be identified. Arsenic has mixed geogenic and anthropogenic origins, mainly related to mining activities. Cd, Cr and Ni are mainly of geogenic origin on a regional scale. Cu has a mainly anthropogenic origin due to its use as a fungicide in viticulture. Pb also has anthropogenic origins related to mining activities, leaded gasoline and hunting activities. As a second step, 4 emerging elements (Ag, Pd, Pt, Rh) were studied from 35 soil samples collected during the second RMQS campaign. The concentrations found indicate that these soils are slightly contaminated by these elements. Statistical analyses show that, on the one hand Ag, Pb, Rh and on the other hand Pd and Pt are correlated. The analysis of the spatial distribution, with the cross-referencing of geographical, geological and agricultural information, showed that automobile emissions are not a major source of PPGE in forest and agricultural soils. Rather, the distribution of Pd and Pt would be of natural origin with possible anthropogenic contributions coming from: i) the long-distance dispersion of Pd and Pt by particles suspended in the atmosphere; ii) inputs, notably mineral fertilisers, for agricultural soils. The origin of Ag and Rh would also be mainly of natural origin and the highest values would come from the proximity of Ag and Pb deposits and mining
37

Fopa, Léon Constantin. "Mise en contexte des traces pour une analyse en niveaux d'abstraction". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM077/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les techniques d'analyse et de débogage d'applications sont de plus en plus mises à mal dans les systèmes modernes. En particulier dans les systèmes basés sur des composants embarqués multiprocesseurs (ou MPSoc) qui composent aujourd'hui la plupart de nos dispositifs quotidiens. Le recours à des traces d'exécution devient incontournable pour appliquer une analyse fine de tels systèmes et d'en identifier les comportements divergents. Même si la trace représente une source d'information riche mise à disposition du développeur pour travailler, les informations pertinentes à l'analyse se retrouvent noyées dans la masse et sont difficilement utilisables sans une expertise de haut niveau. Des outils dédiés à l'exploitation des traces deviennent nécessaires. Cependant les outils existants prennent rarement en compte les aspects métiers spécifiques à l'application afin d'optimiser le travail d'analyse. Dans cette thèse, nous proposons une approche qui permet au développeur de représenter, manipuler et interroger une trace d'exécution en se basant sur des concepts liés à ses propres connaissances métier. Notre approche consiste en l'utilisation d'une ontologie pour modéliser et interroger les concepts métier dans une trace, et l'utilisation d'un moteur d'inférence pour raisonner sur ces concepts métier. Concrètement, nous proposons VIDECOM l'ontologie du domaine de l'analyse des traces d'exécution des applications embarquées multimédia sur MPSoC. Nous nous intéressons ensuite au passage à l'échelle de l'exploitation de cette ontologie pour l'analyse des traces de grandes tailles. Ainsi, nous faisons une étude comparative des différents systèmes de gestion des ontologies pour déterminer l'architecture la plus adaptée aux traces de très grande taille au sein de notre ontologie VIDECOM. Nous proposons également un moteur d'inférence qui adresse les défis que pose le raisonnement sur les concepts métier, à savoir l'inférence de l'ordre temporel entre les concepts métier dans la trace et la terminaison du processus de génération de nouvelles connaissances métier. Enfin, nous illustrons la mise en pratique de l'utilisation de l'ontologie VIDECOM dans le cadre du projet SoC-Trace pour l'analyse des traces d'exécution réelles sur MPSoC
Applications analysis and debugging techniques are increasingly challenging task in modern systems. Especially in systems based on embedded multiprocessor components (or MPSoC) that make up the majority of our daily devices today. The use of execution traces is unavoidable to apply a detailed analysis of such systems and identify unexpected behaviors. Even if the trace offers a rich corpus of information to the developer for her work, information relevant to the analysis are hidden in the trace and is unusable without a high level of expertise. Tools dedicated to trace analysis become necessary. However existing tools take little or no account of the specific business aspects to an application or the developer's business knowledge to optimize the analysis task. In this thesis, we propose an approach that allows the developer to represent, manipulate and query an execution trace based on concepts related to her own business knowledge. Our approach is the use of an ontology to model and query business concepts in a trace, and the use of an inference engine to reason about these business concepts. Specifically, we propose VIDECOM, the domain ontology for the analysis of execution traces of multimedia applications embedded on MPSoC. We then focus on scaling the operation of this ontology for the analysis of huge traces. Thus, we make a comparative study of different ontologies management systems (or triplestores) to determine the most appropriate architecture for very large traces in our VIDECOM ontology.We also propose an inference engine that addresses the challenges of reasoning about business concepts, namely the inference of the temporal order between business concepts in the trace and the termination of the process of generating new knowledge from business knowledge. Finally, we illustrate the practical use of VIDECOM in the SoC-Trace project for the analysis of real execution traces on MPSoC
38

Camus, Brice. "Formules des traces semi-classique au niveau d'une énergie critique". Reims, 2001. http://www.theses.fr/2001REIMS015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous étudions la formule des traces semi-classique au niveau d'une énergie critique pour un opérateur h-pseudo-différentie sur{R}{̂n} dont le symbole principal admet un unique point critique non-dégénéré. En particulier on considérera les cas où la matrice hessienne du symbole principal est symplectiquement diagonalisable et, en général, non définie. Ceci nous conduira à l'étude de la géométrie des systèmes hamiltoniens classiques près de leurs points d'équilibre et au voisinage des périodes non nulles du flot linéarisé. Les contributions de ces périodes conduisent alors à reformuler le problème en terme d'intégrales oscillantes dégénérées. Les coefficients des termes principaux des nouvelles contributions sont exprimés en terme de la géométrie locale de la surface d'énergie et de la dynamique classique issue de celle-ci
We study the semi-classical trace formula on the level of a critical energy for a h-pseudo-differential operator on {R}{̂n} with a unique non-degenerate critical point of the principal symbol. In particular we consider the case where the hessian matrix of the principal symbol at the critical point is non-definite. This lead to the study of Hamiltonan systems near equilibrium and near the non zero periods of the linearised flow. The contributions of these periods leads to reformulate the problem in term of degenerate oscillatory integrals. The new contributions are interpreted in term of the local geometry of the energy surface and the classical dynamic on this energy surface
39

Dumas, Chloé. "Impact of extreme events on particulate trace metal transfer from the continent to the deep sea". Perpignan, 2014. https://tel.archives-ouvertes.fr/tel-01164554.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Moy, Eloïse. "Étude de l’écriture chez l’enfant et l’adulte porteurs de trisomie 21 : analyse de la trace écrite et de sa dynamique". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM3040/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Malgré les avancées technologiques, l’écriture manuscrite continue d’être une habileté hautement sollicitée dans le cadre scolaire et constitue en partie les bases d’une intégration et d’une participation à une vie communautaire réussie. A ce jour, l’étude de l’écriture manuscrite chez des personnes porteuses de trisomie 21 (T21) reste un domaine peu abordé par la communauté scientifique. L’objectif de cette recherche est d’étudier les habiletés d’écriture chez des enfants et adultes T21 comparativement à la population typique de même âge de développement et âge chronologique. Une tâche de copie de texte et l’écriture de lettres isolées sur une tablette graphique mettent en évidence une similarité des capacités d’écriture entre le groupe T21 et le groupe d’enfants typiques de même âge de développement. Différents facteurs individuels influençant l’écriture sont également mis en évidence parmi la coordination de la motricité fine et le contrôle visuo-moteur dans la population T21. Enfin, la présentation de lettres selon différentes modalités induit une amélioration de la fluidité et de la trajectoire d’écriture lors d’une présentation visuelle du tracé et d’instructions verbales. L’ensemble des résultats va dans le sens de l’hypothèse d’un retard de développement ne mettant pas en évidence de déficit spécifique dans la population T21. Nos résultats suggèrent de s’intéresser à l’impact de rééducations ciblées sur la coordination motrice fine et l’intégration visuo-motrice et d’un entraînement visuel et verbal pour tenter d’améliorer la trace écrite ainsi que l’exécution des mouvements d’écriture chez les personnes T21
Despite technological advances, handwriting continues to be a highly solicited skill in the school setting and constitutes, in part, the basis of successful integration and participation in community life. To this day, the study of handwriting in people with Down syndrome (DS) remains a field of study that is not well addressed by the scientific community. The objective of the current research is therefore to study writing skills in children and adults with DS compared to mental-age-matched and chronological-age-matched typically developing population. A task of copying text and writing single cursive letters on a graphics tablet reveal similar handwriting capacities between the DS group and the group of typical children of the same developmental age. Different individual factors influencing writing are also highlighted among fine motor skill and visuo-motor control in the DS population. Finally, letters presentation in different modalities shows evidence of improvement of letter writing in fluidity and trajectory through visualization of tracing and verbal instructions. Overall, the results are consistent with the hypothesis of a developmental delay and do not underline in the DS population. Our results encourage further investigation into the impact of tasks that lend themselves to fine motor skill and visuo-motor control and also training on the trajectory of writing with the aid of visual and verbal cues in order to attempt to improvement of quality and speed of writing as well as movement execution involved in writing in persons with DS
41

Cachia, Maxime. "Caractérisation des transferts d’éléments trace métalliques dans une matrice gaz/eau/roche représentative d'un stockage subsurface de gaz naturel". Thesis, Pau, 2017. http://www.theses.fr/2017PAUU3006/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le gaz naturel représente environ 20% de la consommation énergétique mondiale et cette part est attendue à la hausse dans les prochaines années en raison de la transition énergétique. Pour des raisons économiques et stratégiques, et afin de réguler les demandes d’énergie entre l’été et l’hiver, le gaz naturel est stocké temporairement dans des réservoirs souterrains, notamment des réservoirs aquifères. Les opérations d’injection et de soutirage du gaz mettent donc en contact des espèces gazeuses, liquides et solides, et rendent potentiellement possibles de nombreux phénomènes de transferts d’espèces chimiques d’un milieu vers un autre. Ainsi, bien que composé majoritairement de méthane (70-90%vol), le gaz naturel peut présenter des concentrations variées d’éléments trace métalliques (arsenic, mercure, plomb…). Compte tenu du caractère néfaste de ces composés, à la fois pour les installations industrielles et pour l’environnement, il est de la première importance de connaître l’impact de la composition chimique du gaz sur l’aquifère.Les travaux réalisés dans le cadre de cette thèse s’inscrivent dans ce contexte et ont eu pour objectif de caractériser les matrices gaz/eau/roche ainsi que les interactions qui existent entre elles, avec pour centre d’intérêt principal les éléments trace métalliques.Pour cela nous avons fait porter nos efforts sur l’optimisation (i) des conditions d’utilisation d’un banc de prélèvement ATEX, basé sur le principe de barbotage, et (ii) des méthodes de piégeages des métaux lourds puis d’analyses employées. Ce dispositif unique permet d’échantillonner les métaux présents dans un gaz naturel sous pression (100 bar maximum). Utilisé sur des sites industriels, ce banc a permis de mesurer et suivre sur plusieurs années la composition chimique en éléments trace métalliques du gaz naturel, mais aussi ponctuellement d’un biogaz et d’un biomethane. En effet, Ces deux derniers gaz ont vocation à réduire l’utilisation des énergies fossiles, celle du gaz naturel en particulier. Les biométhanes sont donc amenés à parcourir les mêmes réseaux de transport et à séjourner dans les mêmes sites de stockage que ceux utilisés pour le gaz naturel.En complément de la caractérisation de la phase gazeuse, nous nous sommes intéressés aux évolutions des compositions chimiques des phases aqueuse et minérale du stockage souterrain, sans pouvoir identifier de mécanisme de transfert spécifiquement lié aux activités de stockage de gaz
Natural gas represents 20% of energy consumption in the world. This percentage is expected to increase in the next years due to the energy transition. For economic and strategic concerns, and in to regulate energy demand between summer and winter, natural gas might be stored in underground storages like aquifers. Consequently, injection and drawing operations favour contact between gaseous, liquid and solid species and make possible transfer phenomena of chemical species from one matrix to another. In addition, even though natural gases are composed essentially of methane (70-90%vol), they can also show various metallic trace element concentrations (mercury, arsenic, tin…). According harmful effects of these compounds on industrial infrastructures and on environment, knowing impacts of natural gas composition on aquifer storage is crucial.The different tasks of this thesis are incorporated within such a context with the objective to characterize gases-waters-rocks matrices and their potential interactions, focusing on metallic trace elements.Therefore, we have focused a part of this PhD thesis on the optimisation of conditions of use (i) of a in EX zone 0 sampler device, working according to the principle of bubbling and (ii) of trapping methodology as well as analytic methods. This unique device allows metal sampling from natural gases up to 100 bar pressure. Its use on industrial sites has permitted to measure and monitor during several years the metallic trace element chemical compositions of a natural gas and also more limited biogas and a biomethane analysis. Indeed, these two last gases are designed to reduce fossil fuel consumption particularly natural gas one. Biomethanes are led to use the same transportation network and to be temporarily stored in the same way as natural gaz. In addition of the gaseous phase, we have taken interest in the water and the mineral phases to characterize their chemical composition evolutions in time, without identify specific transfer mechanisms in touch with gas storage activity
42

Aysola, Prasad. "Pulse microwave-mediated sample clean-up method to analyse trace metals, PCBs and pesticides, and for the treatment of organic wastes". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ39070.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Jourdain, Anne. "Étude et développement d'un spectromètre photoacoustique intègre sur silicium pour analyse de gaz". Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10165.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'etude consiste a miniaturiser par integration sur un substrat de silicium un spectrometre infrarouge. L'etude porte en particulier sur la detection de dioxyde de carbone. La detection photoacoustique qui consiste a mesurer une augmentation de pression dans une cavite apparait comme la technique de spectroscopie la mieux adaptee a la miniaturisation et a l'integration. Le microsysteme est compose de deux blocs principaux : un bloc source infrarouge realise sur membrane de nitrure de silicium et un bloc integrant un filtre optique accordable, un microphone pour la detection et une microcavite. Apres une etude theorique approfondie des differents composants, chaque element constitutif est realise a partir des techniques de fabrication empruntees a la microelectronique (photolithographie, depots de couches minces dielectriques et gravures) avant l'assemblage final realisant le microspectrophotometre. Enfin, une etude qualitative et quantitative des caracteristiques et des performances des composants est realisee grace a l'elaboration d'une electronique specifique de traitement du signal.
44

Ottogalli, François-Gaël. "Observations et analyses quantitatives multi-niveaux d'applications à objets réparties". Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004697.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les moyens de traitement de l'information auxquels nous avons accès sont de plus en plus puissants, de plus en plus répartis. Des modèles de programmation, tels que la multiprogrammation légère ou la programmation par objets, leur sont appliqués afin de juguler l'accroissement de la complexité qui en découle. Mais qu'apportent ces modèles ? La mise en oeuvre de ces modèles permet-elle d'employer au "mieux" les ressources disponibles ? Pour répondre à cette question, nous nous plaçons dans une démarche de type "évaluation de performances". La problématique porte sur la reconstruction post-mortem, à partir de mesures, de la dynamique d'une exécution afin de réaliser une analyse qualitative et quantitative des ressources d'exécution consommées. L'hypothèse posée est que l'analyse des interactions entre objets, effectuée à différents niveaux d'abstraction, procure les informations suffisantes à nos études. Pour cela, nous réalisons des observations au niveau applicatif el système et cela sans modification du code exécutable original de l'application ou du noyau du système d'exploitation. Une infrastructure d'observation multi-niveaux a été réalisée dans le cadre d'applications Java réparties. Elle a été appliquée à l'étude d'un serveur multimédia Java. Une analyse de l'algorithmique et des consommations de ressources systèmes a été menée. Pour cela, les observations du niveau applicatif sont effectuées au travers de la JVMPI. Le coût moyen d'observation est de 3µs par point de mesure. Celles du niveau système sont obtenues par insertion à chaud d'un module dans un noyau Linux. De cette façon, les appels systèmes attachés aux écritures et aux lectures dans une "socket" sont déroutés. II nous est ainsi possible de reconstruire les interactions distantes entre objets Java et d'obtenir des indices de consommation des ressources systèmes. Le coût moyen d'observation est ici de 2µs par point de mesure.
45

Borchert, Manuela. "Interactions between aqueous fluids and silicate melts : equilibration, partitioning and complexation of trace elements". Phd thesis, Universität Potsdam, 2010. http://opus.kobv.de/ubp/volltexte/2010/4208/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The origin and evolution of granites has been widely studied because granitoid rocks constitute a major portion of the Earth ́s crust. The formation of granitic magma is, besides temperature mainly triggered by the water content of these rocks. The presence of water in magmas plays an important role due to the ability of aqueous fluids to change the chemical composition of the magma. The exsolution of aqueous fluids from melts is closely linked to a fractionation of elements between the two phases. Then, aqueous fluids migrate to shallower parts of the Earth ́s crust because of it ́s lower density compared to that of melts and adjacent rocks. This process separates fluids and melts, and furthermore, during the ascent, aqueous fluids can react with the adjacent rocks and alter their chemical signature. This is particularly impor- tant during the formation of magmatic-hydrothermal ore deposits or in the late stages of the evolution of magmatic complexes. For a deeper insight to these processes, it is essential to improve our knowledge on element behavior in such systems. In particular, trace elements are used for these studies and petrogenetic interpretations because, unlike major elements, they are not essential for the stability of the phases involved and often reflect magmatic processes with less ambiguity. However, for the majority of important trace elements, the dependence of the geochemical behavior on temperature, pressure, and in particular on the composition of the system are only incompletely or not at all experimentally studied. Former studies often fo- cus on the determination of fluid−melt partition coefficients (Df/m=cfluid/cmelt) of economically interesting elements, e.g., Mo, Sn, Cu, and there are some partitioning data available for ele- ments that are also commonly used for petrological interpretations. At present, no systematic experimental data on trace element behavior in fluid−melt systems as function of pressure, temperature, and chemical composition are available. Additionally, almost all existing data are based on the analysis of quenched phases. This results in substantial uncertainties, particularly for the quenched aqueous fluid because trace element concentrations may change upon cooling. The objective of this PhD thesis consisted in the study of fluid−melt partition coefficients between aqueous solutions and granitic melts for different trace elements (Rb, Sr, Ba, La, Y, and Yb) as a function of temperature, pressure, salinity of the fluid, composition of the melt, and experimental and analytical approach. The latter included the refinement of an existing method to measure trace element concentrations in fluids equilibrated with silicate melts di- rectly at elevated pressures and temperatures using a hydrothermal diamond-anvil cell and synchrotron radiation X-ray fluorescence microanalysis. The application of this in-situ method enables to avoid the main source of error in data from quench experiments, i.e., trace element concentration in the fluid. A comparison of the in-situ results to data of conventional quench experiments allows a critical evaluation of quench data from this study and literature data. In detail, starting materials consisted of a suite of trace element doped haplogranitic glasses with ASI varying between 0.8 and 1.4 and H2O or a chloridic solution with m NaCl/KCl=1 and different salinities (1.16 to 3.56 m (NaCl+KCl)). Experiments were performed at 750 to 950◦C and 0.2 or 0.5 GPa using conventional quench devices (externally and internally heated pressure vessels) with different quench rates, and at 750◦C and 0.2 to 1.4 GPa with in-situ analysis of the trace element concentration in the fluids. The fluid−melt partitioning data of all studied trace elements show 1. a preference for the melt (Df/m < 1) at all studied conditions, 2. one to two orders of magnitude higher Df/m using chloridic solutions compared to experiments with H2O, 3. a clear dependence on the melt composition for fluid−melt partitioning of Sr, Ba, La, Y, and Yb in experiments using chloridic solutions, 4. quench rate−related differences of fluid−melt partition coefficients of Rb and Sr, and 5. distinctly higher fluid−melt partitioning data obtained from in-situ experiments than from comparable quench runs, particularly in the case of H2O as starting solution. The data point to a preference of all studied trace elements for the melt even at fairly high salinities, which contrasts with other experimental studies, but is supported by data from studies of natural co-genetically trapped fluid and melt inclusions. The in-situ measurements of trace element concentrations in the fluid verify that aqueous fluids will change their composition upon cooling, which is in particular important for Cl free systems. The distinct differences of the in-situ results to quench data of this study as well as to data from the literature signify the im- portance of a careful fluid sampling and analysis. Therefore, the direct measurement of trace element contents in fluids equilibrated with silicate melts at elevated PT conditions represents an important development to obtain more reliable fluid−melt partition coefficients. For further improvement, both the aqueous fluid and the silicate melt need to be analyzed in-situ because partitioning data that are based on the direct measurement of the trace element content in the fluid and analysis of a quenched melt are still not completely free of quench effects. At present, all available data on element complexation in aqueous fluids in equilibrium with silicate melts at high PT are indirectly derived from partitioning data, which involves in these experiments assumptions on the species present in the fluid. However, the activities of chemical components in these partitioning experiments are not well constrained, which is required for the definition of exchange equilibria between melt and fluid species. For example, the melt-dependent variation of partition coefficient observed for Sr imply that this element can not only be complexed by Cl− as suggested previously. The data indicate a more complicated complexation of Sr in the aqueous fluid. To verify this hypothesis, the in-situ setup was also used to determine strontium complexation in fluids equilibrated with silicate melts at desired PT conditions by the application of X-ray absorption near edge structure (XANES) spectroscopy. First results show a strong effect of both fluid and melt composition on the resulting XANES spectra, which indicates different complexation environments for Sr.
Die Entstehung und Entwicklung von Graniten steht seit Jahrzehnten im Fokus vieler geologischer Studien, da sich die Erdkruste zu großen Teilen aus granitoiden Gesteinen zusammensetzt. Von besonderer Bedeutung für die Bildung von granitischen Schmelzen ist neben der Temperatur, der Wassergehalt der Schmelze, da dieser Parameter die chemische Zusammensetzung der Schmelze entscheidend verändern kann. Die Entmischung wässriger Fluide aus Schmelzen führt zur Neuverteilung von Elementen zwischen diesen Phasen. Bedingt durch die geringere Dichte des wässrigen Fluids im Vergleich zur Schmelze und dem Nebengestein, beginnt dieses aus tieferen Erdschichten aufzusteigen. Damit verknüpft ist nicht nur eine räumliche Trennung von Schmelze und Fluid, sondern auch die Alterierung des Nebengestein. Dieser Prozess ist insbesondere bei der Bildung von magmatisch-hydrothermalen Lagerstätten und in späten Entwicklungsstadien magmatischer Komplexe wichtig. Für ein detailliertes Verständnis dieser Prozesse ist es notwendig, das Elementverhalten in solchen Systemen in Abhängigkeit von Parametern wie Temperatur, Druck und chemischer Zusammensetzung des Systems experimentell zu untersuchen, und Elementverteilungskoeffizienten als Funktion dieser Variablen zu bestimmen. Für die Untersuchungen sind insbesondere Spurenelemente geeignet, da diese im Gegensatz zu Hauptelementen nicht essentiell für die Stabilität weiterer auftretender Phasen sind, aber sehr sensibel auf Änderungen intensiver Variablen reagieren können. Zudem werden bei geochemischen Mineral- und Gesteinsanalysen viele Spurenelemente, Spurenelementverhältnisse, und Spurenelementisotope als petrogenetische Indikatoren verwendet, d.h. diese Daten liefern Informationen darüber, wann und in welcher Tiefe und bei welchen chemischen Bedingungen ein Gestein gebildet worden ist, und welche weiteren Prozesse es auf dem Weg zur Erdoberfläche durchlaufen hat. Allerdings sind für vie- le Spurenelemente die Abhängigkeiten der Verteilung zwischen Fluiden und Schmelzen von intensiven Variablen nicht, oder nur unzureichend experimentell untersucht worden. Zusätzlich dazu basiert die Mehrheit der experimentell gewonnenen Verteilungskoeffizienten und deren Interpretation, insbesondere hinsichtlich der Elementkomplexierung im Fluid, auf der Analyse von schnell abgekühlten Phasen. Bisher ist nicht geklärt, ob solche Analysen repräsentativ sind für die Zusammensetzungen der Phasen bei hohen Drücken und Temperaturen. Das Ziel dieser Studie war die Erarbeitung eines experimentellen Datensatzes zur Spu- renelementverteilung zwischen granitischen Schmelzen und wässrigen Fluiden in Abhängigkeit von der Schmelzzusammensetzung, der Salinität des Fluids, des Drucks und der Temperatur. Ein Hauptanliegen der Arbeit bestand in der Weiterentwicklung einer experimentellen Methode bei welcher der Spurenelementgehalt im Fluid in-situ, d.h. unter hohen Drücken und Temperaturen, und im Gleichgewicht mit einer silikatischen Schmelze bestimmt wird. Die so gewonnenen Daten können anschließend mit den Resultaten von Abkühlexperimenten vergli- chen werden, um diese und auch Literaturdaten kritisch zu bewerten. Die Daten aller unter- suchten Spurenelemente dieser Arbeit (Rb, Sr, Ba, La, Y und Yb) zeigen: 1. unter den untersuchten Bedingungen eine Präferenz für die Schmelze unabhängig von der chemischen Zusammensetzung von Schmelze und Fluid, Druck oder Temperatur, 2. die Verwendung von chloridhaltigen Fluiden kann die Verteilungskoeffizienten um 1 bis 2 Größenordnungen anheben und 3. für die Verteilungskoeffizienten von Sr, Ba, La, Y und Yb eine starke Abhängigkeit von der Schmelzzusammensetzung im chloridischen System. Der Vergleich der Daten der verschiedenen Methoden zeigt, dass insbesondere für chloridfreie Fluide große Diskrepanzen zwischen den in-situ Daten und Analysen von abgeschreckten Proben bestehen. Dieses Ergebnis beweist eindeutig, dass beim Abschrecken der Proben Rückreaktionen stattfinden, und dass Daten, welche auf Analysen abgeschreckter Fluide basieren, nur eingeschränkt verwendet werden sollten. Die Variation der Verteilungskoeffizienten von Sr, Ba, La, Yb, und Y als Funktion der Schmelzzusammensetzung ist entweder auf eine Änderung der Komplexierung im Fluid und/oder einen anderen veränderten Einbau dieser Elemente in die Schmelze zurückzuführen. Daher wurde im Rahmen dieser Arbeit erstmals versucht, die Elementkomplexierung in silikatischen Fluiden direkt bei hohen Temperaturen und Drücken zu bestimmen. Die Daten für Sr zeigen, dass abhängig von der Schmelzzusammensetzung unterschiedliche Komplexe stabil sein müssen.
46

Thomas, Gaël. "Applications actives : construction dynamique d'environnements d'exécutions flexibles homogènes". Paris 6, 2005. http://www.theses.fr/2005PA066170.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Goncalves, Ilidio. "Contrôle de l'atmosphère des lampes à incandescence par une méthode non destructive". Toulouse 3, 1991. http://www.theses.fr/1991TOU30176.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail a ete consacre a l'etude des decharges a pression quasi atmospherique, produites par une source radio frequence, dans des melanges argon-azote-oxygene. L'analyse est faite par spectroscopie a l'aide d'un analyseur multicanaux intensifie, dans la bande de longueurs d'onde comprise entre 300 et 900 nm. La decharge est entretenue par un generateur haute tension de forte impedance. Le plasma ainsi cree est proche d'un regime de type couronne. Dans ce gaz, il a ete aborde a la fois le transfert d'excitation argon-azote et l'influence de l'addition d'oxygene sur l'equilibre thermique du plasma. Ces deux aspects furent traites a partir de l'observation des moleculaires de l'azote et des raies d'argon
48

Louise, Stéphane. "Calcul de majorants sûrs de temps d'exécution au pire pour des tâches d'applications temps-réels critiques, pour des systèmes disposants de caches mémoire". Phd thesis, Université Paris Sud - Paris XI, 2002. http://tel.archives-ouvertes.fr/tel-00695930.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire présente une nouvelle approche pour le calcul de temps d'exécution au pire (WCET) de tâche temps-réel critique, en particulier en ce qui concerne les aléas dus aux caches mémoire. Le point général est fait sur la problématique et l'état de l'art en la matière, mais l'accent est mis sur la théorie elle-même et son formalisme, d'abord dans le cadre monotâche puis dans le cadre multitâche. La méthode utilisée repose sur une technique d'interprétation abstraite, comme la plupart des autres méthodes de calcul de WCET, mais le formalisme est dans une approche probabiliste (bien que déterministe dans le cadre monotâche) de par l'utilisation de chaînes de Markov. La généralisation au cadre multitâche utilise les propriétés proba- bilistes pour faire une évaluation pessimiste d'un WCET et d'un écart type au pire, grâce à une modification astucieuse du propagateur dans ce cadre. Des premières évaluations du modèle, codées à la main à partir des résultats de compilation d'applications assez simples montrent des résultats promet- teurs quant à l'application du modèle sur des programmes réels en vraie grandeur.
49

França, José Ricardo de Almeida. "Télédétection satellitaire des feux de végétation en région intertropicale. Application à l'estimation des flux des composés en trace émis dans l'atmosphère". Toulouse 3, 1994. http://www.theses.fr/1994TOU30086.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les feux de biomasse constituent a l'echelle du globe une source importante pour de nombreux constituants minoritaires ayant un interet en physico chimie atmospherique et jouent un role sur le bilan radiatif de la planete. Les regions de savanes et les forets tropicales sont responsables pour plus de 50% des emissions de constituants en trace. De ce total 74. 5% sont dues aux savanes. Les mesures de teledetection satellitaire sont les seuls systemes d'acquisition des donnees qui peuvent determiner, aux echelles de temps et d'espace requises, l'extension de ce phenomene. La teledetection des feux de biomasse en regions de savane est tres complexe en raison de problemes specifiques qui ne se retrouvent pas dans les regions de forets tropicales et temperees. Afin de mieux estimer la distribution des feux actifs en fonction de differentes types de savane de l'afrique de l'ouest (sahel, soudanaise, guineenne) et de la foret tropicale, nous avons developpe une methode multispectrale basee sur les donnees de noaa/avhrr, pour identifier et eliminer les problemes dus a la grande heterogeneite de surface et aux faux signaux produits par les nuages, fumees, aerosols, les emissivites propres a l'environnement, etc dans le cas de surface, comme la foret, en ciel clair, ou il n'y a pas de faux signaux feux, les differentes methodes, dont la notre, sont concordantes quant au nombre des feux actifs. Au contraire, sur les sols ou l'emissivite est tres forte, ou en presence de nuages partiels ou aerosols, la difference entre le nombre de feux calcules par notre methode et d'autres methodes, peut atteindre un rapport de 10#4. Nous avons applique cette methode sur les images noaa/avhrr correspondant a la saison seche comprise entre octobre-90 et fevrier-91. Nous avons observes une evolution nord-sud en fonction de la saison et en correlation avec l'evolution du ndvi et du type de savane. Nous avons fait une etude plus detaillee sur la cote d'ivoire en prenant en compte les reseaux hydrographiques, routieres, les donnees meteorologiques et ecologiques codes sur un fichier gis (geographic information system). L'intensite maximale de l'activite des feux a ete trouvee en decembre, bien correlee avec la pollution de l'air mesuree en surface
50

Mahieuxe, Bruno. "Capteurs à fibre optique pour le dosage des nitrates". Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL046N.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les capteurs à fibre(s) optique(s) trouvent de nombreuses applications dans la surveillance de l'environnement et particulièrement pour le contrôle continu et in situ de substances polluantes. Étant donné la toxicité des nitrates et des nitrites, l'objectif de ce travail a été de développer des capteurs chimiques à fibre optique fondés sur la fluorescence de composés sensibles spécifiquement à ces anions, la fluorimétrie étant généralement décrite comme une méthode permettant l'analyse de substances à l'état de traces, de l'ordre du ppm, voire du ppb. L'élaboration d'optodes actives à nécessité plusieurs étapes: le choix d'un indicateur fluorescent sensible aux polluants: la fluorescéine pour les nitrates, le 2,3-diaminonaphtalene ou la 4-aminofluoresceine pour les nitrites, l'étude, en phase homogène, des dosages fluorimétriques des nitrates et des nitrites et notamment de leur sensibilité, le développement de techniques d'immobilisation, par liaison covalente, de l'indicateur à l'extrémité de fibres optiques de différentes natures (en silice ou en polystyrène), la caractérisation des optodes: densité du greffage, stabilité dans le milieu d'analyse, la mise au point de systèmes optiques permettant la mesure qualitative et quantitative de la fluorescence des optodes. Ainsi, des optodes en silice, appliquées au dosage des nitrates, ont pu être élaborées, leur réponse étant linéaire pour des concentrations en nitrates comprises entre 2 10^-6 et 10^-5 mol. L-1 (soit entre 0,12 et 0,62 mg NO3-. L-1 dans le milieu d'analyse). Pour les nitrites, le greffage covalent sur les fibres n'a pu être abordé, néanmoins des solutions ont été proposées

Vai alla bibliografia