To see the other types of publications on this topic, follow the link: Outil SaaS.

Dissertations / Theses on the topic 'Outil SaaS'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 21 dissertations / theses for your research on the topic 'Outil SaaS.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bourgeois, Guillaume. "Analyse et modélisation de l’impact environnemental du système d’information." Electronic Thesis or Diss., La Rochelle, 2023. http://www.theses.fr/2023LAROS023.

Full text
Abstract:
Le numérique est devenu une partie intégrante de notre vie quotidienne, mais il a un impact environnemental important, notamment en termes de consommation d’énergie, de production de gaz à effet de serre, de déchets électroniques, de pollution de l’eau et de l’air, de déforestation, et de diminution de la biodiversité. Les organisations prennent conscience de leur responsabilité environnementale et cherchent à réduire leur empreinte carbone liée au SI (système d’information). Pour aider les organisations à piloter leur empreinte carbone SI, cette thèse propose un cadre d’aide à la décision basé sur une modélisation fine de l’impact environnemental du système d’information. Ce cadre permet d’identifier les actions les plus efficaces pour réduire l’impact environnemental du SI en prenant en compte les contraintes opérationnelles et financières des organisations. Les outils WeNR sont présentés comme des applications concrètes de ce cadre d’aide à la décision, qui permettent de mesurer l’impact environnemental du SI au sein des organisations et de proposer des mesures concrètes pour le réduire. Enfin, l’auteur présente les perspectives d’un outil SaaS d’aide à la décision dans le numérique responsable qui permettrait de collecter automatiquement les données relatives à l’empreinte carbone numérique de l’organisation, de les analyser et de proposer des actions spécifiques pour la réduire, ainsi que de fournir des indicateurs clés de performance environnementale
Digital technology has become an integral part of our daily lives, but it has a significant environmental impact, particularly in terms of energy consumption, greenhouse gas production, electronic waste, water and air pollution, deforestation, and biodiversity loss. Organizations are becoming aware of their environmental responsibility and are seeking to reduce their carbon footprint related to information systems. To help organizations manage their IS carbon footprint, this thesis proposes a decision support framework based on a detailed modeling of the environmental impact of the information system. This framework identifies the most effective actions to reduce the environmental impact of the IS, taking into account the operational and financial constraints of the organizations. The WeNR tools are presented as concrete applications of this decision support framework, which allow measuring the environmental impact of the IS within organizations and proposing concrete measures to reduce it. Finally, the author presents the prospects of a responsible digital SaaS decision support tool that would automatically collect data on the organization’s digital carbon footprint, analyze it, propose specific actions to reduce it, and provide key environmental performance indicators
APA, Harvard, Vancouver, ISO, and other styles
2

Moreau, Richard. "Le simulateur d'accouchement BirthSIM : un outil complet pour la formation sans risque en obstétrique." Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00267771.

Full text
Abstract:
Du fait que les complications liées à l'utilisation d'instruments obstétriques proviennent d'un problème de formation des jeunes obstétriciens et sages-femmes, nous proposons le simulateur d'accouchement BirthSIM comme un outil pour acquérir une première expérience obstétrique. En effet, un simulateur offre à l'équipe médicale une formation sans risque afin de compléter la formation traditionnelle en salle d'accouchement.

Le simulateur BirthSIM se compose de mannequins anthropomorphes pour assurer la continuité avec la salle d'accouchement. Pour reproduire les forces mises en jeu, un vérin pneumatique commandé par un servodistributeur est asservi en position et en effort afin de simuler différents accouchements. Pour évaluer le geste obstétrique celui-ci est décomposé en deux étapes : la pose des forceps et le geste d'extraction. Pour analyser la pose des forceps, ces derniers ont été instrumentés avec des capteurs de position à six degrés de liberté, puis des méthodes d'analyse des gestes ont été développées pour évaluer objectivement la répétabilité des opérateurs, leur erreur et le taux de similarité de leur geste par rapport à un geste de référence. Concernant le geste d'extraction, un capteur de force placé au niveau du cou foetal enregistre la force exercée par l'opérateur. Une fonction d'évaluation regroupe les paramètres liés à cette extraction
(force maximal, travail, etc.) afin d'obtenir un indice de performance du geste.

Enfin, l'interface de visualisation du simulateur permet aux opérateurs de voir un geste habituellement réalisé en aveugle car prenant place à l'intérieur du bassin maternel. Une méthode d'apprentissage sans risque du geste obstétrique est proposée à l'équipe médicale. En
utilisant les méthodes d'évaluation développées, la progression de la technique des obstétriciens formés sur le simulateur BirthSIM est quantifiée. Les résultats obtenus confirment et complètent les résultats disparates trouvés dans la littérature et attestent de l'intérêt d'un simulateur.
APA, Harvard, Vancouver, ISO, and other styles
3

Bakni, Michel. "Outil de dimensionnement trans-niveaux de réseaux de capteurs sans fil contraints en énergie." Thesis, Bordeaux, 2021. http://www.theses.fr/2021BORD0087.

Full text
Abstract:
Un Réseau de Capteurs Sans Fil (RCSF) est composé d’un ensemble de noeuds alimentés par batterie, associant des capteurs à une unité de traitement et à un émetteur-récepteur sans fil. De nos jours, les RCSF font l’objet de nombreux travaux de recherche et développement. En effet, ces réseaux constituent une solution intéressante afin d’apporter une réponse à différents enjeux sociaux, sociétaux et économiques tels que le déploiement des Smart Grids ou la supervision à distance de la santé de personnes dans un contexte de vieillissement de la population. Ces RCSF ont la capacité d'être déployé dans des environnements contraints, tels que les forêts, les volcans et les bâtiments, pour atteindre divers objectifs : la localisation d’objets et d’individus mais aussi la surveillance de phénomènes physiques, comme les signaux physiologiques de patients ou la température ambiante d’un bâtiment.Cependant, le déploiement de ces RCSF est souvent rendu critique en raison des contraintes imposées par l'environnement d’application, par exemple, les températures pouvant être subies lors de la supervision d’un volcan, ou la difficulté d’accès aux noeuds lorsque ceux-ci sont utilisés pour la surveillance de l'état structurel d'une autoroute ou d'un bâtiment. Par conséquent, les chercheurs et développeurs de ce type de réseau ont besoin d'outils pour tester et évaluer, dans le cadre du processus de conception d'un RCSF, les performances des noeuds et du réseau avant de le déployer dans un environnement réel.Dans ce contexte, les outils de simulation peuvent apporter une solution permettant un gain de temps, une limitation des coûts et des efforts avant le déploiement d’un tel réseau dans son environnement d’utilisation. Ces outils sont donc aujourd’hui largement répandus et utilisés pour évaluer les performances d’un RCSF mais aussi les propositions issues de travaux de recherche relatifs à ce type de réseau. Néanmoins, la conception d'un RCSF, dédié à une application, doit tenir compte de sa structure multi-niveau : topologie, noeuds et circuits. Ainsi, pour aborder les principaux défis liés au RCSF, tels que la problématique d’autonomie énergétique des noeuds, la modélisation de ces réseaux est considérée comme une tâche complexe car l'approche de modélisation utilisée doit considérer sa structure multi-niveau afin de fournir des résultats exploitables provenant simultanément de niveaux d’abstraction différents.Dans cette thèse, nous définissons, proposons et implémentons un modèle trans-niveaux orienté énergie dédié au RCSF permettant de considérer simultanément différents niveaux d'abstraction : topologie, noeuds et circuits. Ce modèle est capable de tracer la consommation énergétique à partir de différents points de vue : l'activité spécifique d'un circuit, les activités d'un circuit ou d'un noeud, ainsi que son impact sur la durée de vie du RCSF. Notre modèle est ensuite implémenté dans un simulateur de RCSF dédié afin, en considérant différents scénarios, de comparer les résultats obtenus avec un simulateur existant et des noeuds réels dans le but de valider la pertinence de notre approche
Wireless Sensor Network (WSN) is a set of battery-powered nodes that include sensors coupled with processing units and wireless transceivers. Nowadays, WSN is a major topic in the research and development domain. Indeed, it constitutes an interesting solution to give an answer to different situations related to social, societal and economic issues such as the need to manage the Smart Grids or to supervise patient’s health in the context of the aging population. This kind of network has the capacity to be simply deployed in harsh environments, such as forests, volcanoes and buildings, to achieve various goals, like tracking targets, animals or human beings for example, or monitoring physical phenomena, such as patient physiological signals or ambient temperature in a building.However, the deployment of WSNs can be critical because of the difficult conditions imposed by the application environment, for example, the high temperatures in the case of volcano activity supervision, or the impossibility of reaching the nodes after deployment, when the WSN must be used to structural health monitoring of a highway or a building. Therefore, researchers and developers need tools to test and evaluate, in the design process of a WSN, node and network performances before deploying it in real surroundings.In this context, simulation can provide a solution that can save time, cost, and effort before deploying a WSN application in its real environment. This explains that simulation tools are widely used in WSN designing stages and for research works evaluation related to this kind of network. Nevertheless, designing a WSN, dedicated to a specific application, needs to address its multilevel structure: topology, nodes and circuits. Thus, to handle the main challenges of WSN design such as energy issues, WSN modelling is considered a complex task because the adopted modelling approach has to take into account the WSN multilevel structure in order to provide exploitable results from different points of view at the same time.In this thesis, we define, propose and implement a cross-level energy-aware model for WSN that allows considering different levels of abstraction at the same time: circuits, nodes and topology. This energy-oriented model is able to trace the energy consumption from multiple points of view: a specific circuit's activity, circuit or node activities, as well as the impact on the WSN lifetime. The proposed model is implemented in a dedicated WSN simulator, which is used, defining different scenarios, to compare obtained results with a well-known simulator and physical WSN nodes with the aim to validate the relevance of our approach
APA, Harvard, Vancouver, ISO, and other styles
4

Moreau, Richard Redarce Tanneguy Pham Minh Tu. "Le simulateur d'accouchement BirthSIM un outil complet pour la formation sans risque en obstétrique /." Villeurbanne : Doc'INSA, 2008. http://docinsa.insa-lyon.fr/these/pont.php?id=moreau.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Mahmud, Mussa. "Outil d’aide au contrôle de spécifications géométriques de pièces mécaniques par la mesure 3D sans contact." Dijon, 2007. http://www.theses.fr/2007DIJOS066.

Full text
Abstract:
Dans le cadre de la mesure tridimensionnelle de pièces mécaniques par capteur sans contact, je m’intéresse à la prise en compte des défauts du capteur dans la stratégie de mesure. En effet, si des avancées technologiques dans le domaine des capteurs optiques permettent d’envisager le contrôle dimensionnel des pièces, leur relative imprécision par rapport aux capteurs à contact nécessite d’optimiser les stratégies de mesure en regard des spécifications à contrôler. Ainsi, en développant une stratégie de numérisation adéquate prenant en compte les défauts du capteur, il est envisagé de minimiser les incertitudes de mesure et d’utiliser ces capteurs dans le cadre d’applications assez larges de mesure des pièces mécaniques. Les défauts pris en compte peuvent être par exemple associés à la distance capteur/pièce, à l’orientation capteur/pièce. Mon travail concerne développement, l’écriture et l’implémentation d’un algorithme de simulation de trajectoire en regard de différents paramètres du capteur et des spécifications géométriques de la pièce. Il est une première approche d’une approche de planification automatique de trajectoire d’un capteur de mesure sans contact. La méthode que nous mettons en oeuvre est basée sur la notion de la visibilité de la pièce. Elle consiste à déterminer les directions pour lesquelles les toutes les surfaces à contrôler de la pièce sont visibles par le capteur. L’approche est constituée de trois phases successives : La première phase définit la visibilité locale du point de vue du laser qui dépend de la précision souhaitée. La seconde concerne le traitement des phénomènes d’ombrages qui peuvent perturber l’accès du laser à la surface dans certaines directions. Enfin la troisième représente la visibilité totale ou réelle du capteur qui élimine les orientations correspondant à l’occultation de la caméra. A partir de la carte de visibilité réelle et complète d’une pièce on déduit des positions et orientations préférentielles du capteur. Cette détermination, envisagée dans un cadre métrologique se fait dans le respect des spécifications dimensionnelles et géométriques de la pièce et prend en compte les différentes incertitudes de mesure notamment la réindexation du capteur ainsi que la notion de temps de mesure. L’objectif est de déterminer une trajectoire acceptable sans pour autant qu’elle soit optimale
Within the framework of the Ph. D. GM- GC under title Computer aided inspection of geometrical specification of mechanical part without contact 3D Measurement, and within the team “metrology 3D” located in Auxerre, L. R. M. A. University of Burgundy. Within the framework of the three-dimensional measurement of mechanical part using without contact sensor, this work concerns the taking into account of the defects of the sensor in the strategy of measurement. Indeed, if technological projections in the field of the optical sensors make it possible to consider the dimensional check of the parts, their relative inaccuracy with respect to the sensors with contact requires optimizing the strategies of measurement compared to the specifications to be controlled. Thus, by developing a strategy of adequate digitalization taking of account the defects of the sensor, it is planned to minimize uncertainties of measurement and to approach the current performances of the sensors with contact. These defects can for example be associated at the distance sensor/piece-rates, with the orientation sensor/part and the work has consisted in the development, the writing and the implementation of an algorithm of simulation of trajectory compared to various parameters of the sensor and the geometrical specifications of the part. Lastly, they must lead to the automatic planning of trajectory of a transmitter without contact. The method that we implement is based on the notion of the visibility of the part. It consists in determining the directions for which all surfaces of the part are visible by the sensor. The approach consists of three successive phases. The first phase defines the visibility from the point of view of the laser. The second relates to the screening of the camera. And the third represents the total visibility of the sensor unit; i. E. Laser and camera associated. A chart of total visibility is built. From this one, positions and preferential orientations part are retained to carry out the inspection. This determination, under considerations within a metrological framework, must be done in the respect of the dimensional and geometrical specifications of the part while guaranteeing its complete digitalization. The developed approach which one thus seeks the complete automation of the planning of the trajectory. It represents a step of planning aid of the trajectory of digitalization under metrological considerations
APA, Harvard, Vancouver, ISO, and other styles
6

Claveirole, Thomas. "Activités Wi-fi en environnement ouvert : outils, mesures et analyses." Paris 6, 2010. http://www.theses.fr/2010PA066020.

Full text
Abstract:
Une part importante de la recherche en réseaux étudie le protocole Wi-Fi. Une des techniques pour mieux le comprendre est le sniffing (c. -à-d. L'écoute passive du trafic radio). Mais cela soulève des questions. Cette technique génère des traces de paquets, et il n'existe pas de logiciel générique pour les manipuler. Il en résulte une mauvaise interopérabilité, des efforts dupliqués et des performances décevantes. Ces problèmes sont critiques pour la fusion de traces. Des questions de plus haut niveau se posent aussi. D'abord, la précision du sniffing est incertaine. Ensuite, les études se concentrent souvent sur des problèmes de protocole. Le Wi-Fi équipe de nouveaux types d'appareils (p. Ex. Des appareils mobiles) et il serait intéressant d'étudier ces usages. Enfin, on a peu d'informations en dehors des environnements académiques. Dans cette thèse nous proposons WiPal, un logiciel pour traiter les traces de paquets Wi-Fi. Il inclue une bibliothèque et un ensemble de programmes. Ceux-ci permettent, par exemple, la fusion de traces ou le calcul de statistiques. WiPal comporte des algorithmes originaux et des optimisations pour les grandes traces. Avec WiPal nous effectuons plusieurs analyses. Avec deux jeux de données courts nous étudions la précision du sniffing. Avec trois jeux de données de plusieurs jours dans un bureau, une zone pavillonnaire et en centre-ville, nous étudions les usages du Wi-Fi. Nous obtenons des résultats inattendus. Par exemple, les techniques d'évaluation de la précision des traces manquent de fiabilité. Ou encore, les traces contiennent une très faible proportion d'utilisateurs réguliers.
APA, Harvard, Vancouver, ISO, and other styles
7

Chis, Andréea. "Méthodes et outils pour la compilation et l'optimisation logicielle des systèmes embarqués sans fil dédiés à des applications." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2012. http://tel.archives-ouvertes.fr/tel-00768830.

Full text
Abstract:
Les réseaux de capteurs communicants sont fortement contraints en ressources: calcul, mémoire et énergie. Dans ce contexte, une attention particulière doit être portée lors de la conception des application, des protocoles de communication et du système d'exploitation qui vont être exécutés sur les plateformes. Le but de cette thèse a été d'adapter les modèles de logiciels utilisés classiquement pour la programmation d'applications au domaine des réseaux de capteurs et de proposer des méthodes et outils permettant de construire une version adaptée du logiciel devant s'exécuter sur les cibles à partir d'un modèle de l'application. Une des composantes qui consomment le plus d'énergie d'un micro-capteur c'est son interface radio. Le comportement d'une couche MAC peut être exprimé comme un automate temporisé avec des états fixes (qui correspondent à des états spécifiques du dispositif physique) ou des états libres (dont le choix de mappage est laissé au programmeur). Le comportement d'un périphérique radio peut lui-même être exprimé comme un automate temporisé composé d'états transitoires (avec durée fixe de l'état) et non transitoires (avec une durée illimitée mais avec une contrainte de temps minimal à passer dans l'état). Le problème de mapper un état software libre de durée fixe sur un chemin dans l'automate du dispositif physique en minimisant l'énergie est prouvé NP-complète. Une heuristique permettant de mapper les états libres d'un automate correspondant à un protocole software sur des états ou chemins entre les états d'un dispositif physique est proposée. L'approche amène à des gains théoriques de 60% pour B-MAC- une couche MAC classique. Pour les 2 catégories de système d'exploitation dédiés à ce type d'applications (modèle à événements et modèle à threads), des squelettes de code sont générés. Adapté a Mantis OS, le squelette de code pour B-MAC confirme en simulation sur la plateforme Worldsens les gains théoriques. Des experimentations sur la plateforme réelle Senslab ont prouvé que l'optimisation en terme d'energie ne modifie pas les performances fonctionnelles du protocole.
APA, Harvard, Vancouver, ISO, and other styles
8

Chis, Andreea. "Méthodes et outils pour la compilation et l'optimisation logicielle des systèmes embarqués sans fil dédiés à des applications." Thesis, Lyon, École normale supérieure, 2012. http://www.theses.fr/2012ENSL0708.

Full text
Abstract:
Les réseaux de capteurs communicants sont fortement contraints en ressources : calcul, mémoire et énergie. Dans ce contexte, une attention particulière doit être portée lors de la conception des application, des protocoles de communication et du système d'exploitation qui vont être exécutés sur les plateformes. Le but de cette thèse a été d'adapter les modèles de logiciels utilisés classiquement pour la programmation d'applications au domaine des réseaux de capteurs et de proposer des méthodes et outils permettant de construire une version adaptée du logiciel devant s'exécuter sur les cibles à partir d'un modèle de l'application. Une des composantes qui consomment le plus d'énergie d'un micro-capteur c'est son interface radio. Le comportement d'une couche MAC peut être exprimé comme un automate temporisé avec des états fixes (qui correspondent a des états spécifiques du dispositif physique) ou des états libres (dont le choix de mappage est laissé au choix du programmeur). Le comportement d'un périphérique radio peut lui-même être exprimé comme un automate temporisé composé d' états transitoires (avec durée fixe de l'état) et non transitoires (avec une durée illimitée mais avec une contrainte de temps minimal à passer dans l'état). Le problème de mapper un état software libre de durée fixe sur un chemin dans l'automate du dispositif physique en minimisant l'énergie est prouvé NP-complète. Une heuristique permettant de mapper les états libres d'un automate correspondant à un protocole software sur des états ou chemins entre les états d'un dispositif physique est proposée. L'approche amène à des gains théoriques de 60% pour B-MAC- une couche MAC classique. Pour les 2 catégories de système d'exploitation dédiés à ce type d'applications (modèle à événements et modèle à threads), des squelettes de code sont générés. Adapté a Mantis OS, le squelette de code pour B-MAC confirme en simulation sur la plateforme Worldsens les gains théoriques. Des simulations sur la plateforme réelle Senslab ont prouvé que l'optimisation en terme d'energie ne modifie pas les performances fonctionnelles du protocole
Wireless Sensor Networks are are highly constrained in resources: computation, memory and energy. In this context, particular attention must be paid when designing applications, communication protocols and operating systems that will run on the sensor nodes. The purpose of this thesis was to adapt the software models conventionally used for programming applications to the field of sensor networks and to propose methods and tools to build a customized version of the software to run on the sensor nodes from a model of the application.One of the components of a micro-sensor that consumes the most energy is its radio interface. The behavior of a MAC layer protocol can be expressed as a timed automaton with fixed states (which correspond to specific states of the physical device) or free states ( the choice for their mapping is left to the programmer). The behavior of a radio device itself can be expressed as an automaton consisting of transitional (with fixed duration) and non-transitional states (with unlimited duration but with a minimum time duration constraint). The problem of mapping a free state of the software of fixed duration on a path of the physical device by minimizing the energy consumed is proven to be NP-complete. A heuristic to map the free states of an automaton corresponding to a software protocol to states or paths between the states of a physical device is proposed. The approach leads to theoretical gains of 60% for the mapping of B-MAC, a MAC layer protocol. For two categories of operating systems dedicated to Wireless Sensor Networks (event model and multi-threaded), code skeletons are generated. The simulations under the Worldsens platform of the multi-threaded code skeleton generated for B-MAC and adapted to Mantis OS confirmed the theoretical gains. Experiments on the real platform SensLab have shown that the optimization in terms of energy does not change the functional performance of the protocol
APA, Harvard, Vancouver, ISO, and other styles
9

Huang, Yuanyuan. "Etude de l'exposition d'une population à un réseau de communication sans fil via les outils de dosimétrie et de statistique." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0009/document.

Full text
Abstract:
Cette thèse propose une nouvelle méthode, via les outils de dosimétrie et de statistiques, pour l'évaluation de l'exposition globale d'une population aux champs électromagnétiques (EMFs) radiofréquences en prenant en compte les différentes technologies, usages et environnements... Nous avons analysé pour la première fois l'exposition moyenne d'une population induite par un réseau 3G, tout en considérant à la fois les émissions EMFs montantes et descendantes dans des différents pays, dans des différentes zones géographiques et pour les différents usages des mobiles. Les résultats montrent une forte hétérogénéité de l'exposition dans le temps et dans l'espace. Contrairement à la croyance populaire, l'exposition aux ondes EMFs 3G est dominée par les émissions montantes, résultant de l'usage voix et data. En outre, l'exposition moyenne de la population diffère d'une zone géographique à une autre, ainsi que d'un pays à un autre, en raison des différentes architectures de réseau cellulaire et de la variabilité de l'usage des mobiles. Ensuite, la variabilité et les incertitudes liées à ces facteurs ont été caractérisées. Une analyse de sensibilité basée sur la variance de l'exposition globale a été effectuée dans le but de simplifier son évaluation. Enfin, une méthodologie simplifiée basée sur des outils statistiques avancés a été proposée pour évaluer l'exposition réelle de la population en tenant compte de la variabilité liée à l'environnement de propagation, à l'usage, ainsi qu'aux émissions EMFs provenant des mobiles et des stations de base (BTS). Les résultats ont souligné l'importance de la densité de puissance reçue depuis les BTS pour l'exposition globale induite par un réseau macro LTE
Wireless communication technologies, since their introduction, have evolved very quickly and people have been brought in 30 years into a much closer world. In parallel radiofrequency (RF) electromagnetic fields (EMF) are more and more used. As a consequence, people's attentions around health risks of exposure to RF EMFs have grown just as much as their usages of wireless communication technologies. Exposure to RF EMFs can be characterized using different exposure metrics (e.g., incident field metrics, absorption metrics...). However, the existing methodologies are well suited to the maximum exposure assessment for the individual under the worst-case condition. Moreover in most cases, when dealing with exposure issues, exposures linked to RF EMF emitted from base stations (BTS) and by wireless devices (e.g, mobile phones and tablets) are generally treated separately. This thesis has been dedicated to construct and validate a new method for assessing the real day-to-day RF EMF exposure to a wireless network as a whole, exploring the people's daily life, including both downlink and uplink exposures and taking into account different technologies, usages, environments, etc. Towards these objectives, we analyzed for the first time the average population exposure linked to third generation network (3G) induced EMFs, from both uplink and downlink radio emissions in different countries, geographical areas, and for different wireless device usages. Results, derived from device usage statistics, show a strong heterogeneity of exposure, both in time and space. We show that, contrary to popular belief, exposure to 3G EMFs is dominated by uplink radio emissions, resulting from voice and data traffic, and average population EMF exposure differs from one geographical area to another, as well as from one country to another, due to the different cellular network architectures and variability of mobile usage. Thus the variability and uncertainties linked to these influencing factors were characterized. And a variance-based sensitivity analysis of the global exposure was performed for the purpose of simplifying its evaluation. Finally, a substitution model was built to evaluate the day-to-day global LTE induced EMFs exposure of a population taking into account the variability linked to propagation environment, usage, as well as EMFs from personal wireless devices and BTS. Results have highlighted the importance of received power density from BTS to the issue of global exposure induced by a macro LTE network. This substitution model can be further used to analyze the evolution of the wireless network in terms of EMF exposure
APA, Harvard, Vancouver, ISO, and other styles
10

Destremaut, Fanny. "Microfluidique et diffusion de rayonnements : des outils pour l'étude cinétique de la polycondensation du silicate." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13776/document.

Full text
Abstract:
Une étude haut-débit de la polycondensation du silicate est réalisée grâce à des outils robotisés couplés à des mesures macroscopiques (turbidité, gélification). Cette approche permet de dégager les limites de gélification d'un silicate industriel ainsi que les mécanismes mis en jeu. Cette thèse présente aussi deux outils miniaturisés basés sur des technologies microfluidiques, adaptés à des mesures in-situ et sous écoulement de diffusion des rayons X aux petits angles et de diffusion dynamique de la lumière. Ces outils permettent d'étudier les mécanismes de la polycondensation du silicate de sodium dans le procédé industriel, à des échelles de temps courtes (1 à 10 s)
Abstract
APA, Harvard, Vancouver, ISO, and other styles
11

Oikonomopoulou, Apostolia. "APPROCHES NUMERIQUES POUR L'ETUDE DU COMPORTEMENT DES STRUCTURES MAÇONNEES ANCIENNES : Un outil basé sur le Calcul à la Rupture et la visualisation graphique." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00493588.

Full text
Abstract:
L'ingénieur et l'architecte, confrontés à la large demande pour la préservation des structures historiques et monumentales, ont besoin d'une approche transdisciplinaire et efficace pour le traitement de ces systèmes complexes. Les travaux de recherche proposés dans cette thèse s'inscrivent à un effort de développement d'un outil informatique servant à une évaluation préliminaire de la stabilité des structures maçonnées anciennes, qui est compréhensible par des utilisateurs travaillant dans diverses disciplines. Etant donné que le comportement statique global de ce type de structures pose plutôt un problème d'équilibre, le théorème statique du Calcul à Rupture est utilisé afin de vérifier la stabilité d'une structure maçonnée sous chargements statiques ou quasi-statiques. La méthode proposée correspond aux systèmes structuraux bidimensionnels ou pseudo-tridimensionnels (symétries axiales) qui comportent les éléments typiques de l'architecture médiévale combinés de façons variables.
APA, Harvard, Vancouver, ISO, and other styles
12

Ben, Ammar Amira. "Approche cross-layer pour la minimisation d’énergie dans les réseaux de capteurs sans fil." Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1191/document.

Full text
Abstract:
Les réseaux de capteurs sans fil (RCSF) sont des réseaux ad hoc généralement constitués d’entités autonomes miniaturisées appelés noeuds capteurs pouvant communiquer entre eux par liaison radio. Les RCSF ont suscité beaucoup d’engouement dans la recherche scientifique en raison notamment des nouveaux problèmes de routage sous forte contrainte de durée de vie du réseau et de faibles capacités des noeuds.Ce type de réseau diffère des réseaux filaires par ses caractéristiques et limitations qui ont motivé le développement d’une nouvelle approche de conception cross-layer ignorant certains paradigmes de l’approche classique permettant l’échange mutuel d’informations même entre couches non adjacentes. Cette approche qui n’est pas encore standardisée, a démontré son intérêt à travers plusieurs travaux visant un meilleur compromis entre consommation d’énergie et une certaine qualité de service.Nos contributions peuvent être classées en deux catégories suivant la stratégie de routage à savoir le routage ad-hoc et le routage suivant la technique de clustering.Dans la première partie, nous proposons une architecture cross-layer, modulaire, adaptable et extensible nommée XL-AODV (cross layer AODV) basée sur l'échange du SNR (Signal-to-Noise-Ratio) entre la couche réseau et la couche physique qui a été modélisée par la distribution K. Nous évaluons sous le simulateur NS2 les performances de notre approche XL-AODV. Une analyse comparative avec AODV, a montré pour différentes configurations de réseaux, l’efficacité de notre proposition en termes de gains énergétiques et de latence de bout en bout.Pour la deuxième partie, nous proposons une première approche XL-LEACH qui constitue une amélioration de la version originale de LEACH, en l'adaptant aux réseaux de capteurs denses et à grande échelle tout en tenant compte des caractéristiques de la couche physique modélisée par la distribution K. Dans une troisième partie, nous introduisons une amélioration de XL-LEACH par l'approche dite, XL-CLEACH (XL Cooperative LEACH) en intégrant la communication coopérative au niveau MAC. Nous avons prouvé par une étude analytique qui a été validée par les simulations, le gain apporté en termes de consommation d’énergie, de la durée de vie du réseau et du TES (Taux d'Erreur Symbol). Les architectures XL-LEACH et XL-CLEACH ont été implémentées sous MATLAB
Wireless sensor networks (WSN) can be defined as an ad hoc network consisting of miniaturized autonomous entities, called sensor nodes which communicate with each other over a radio link. WSNs is a research topic which has gained a lot of interest due, in particular, to new routing problems under low node capacity and high network lifetime constraints.WSNs differ from wired networks in their characteristics and limitations which have motivated the development of a new cross-layer design that ignores certain paradigms of the classical approach allowing the mutual exchange of information even between non-adjacent layers. This approach, which is not yet standardized, has gained a lot of attention through several works aiming to energy consumption minimization under a required QoS (Quality of Service).In this thesis, our contributions can be classified are twofold according to the considered routing strategy namely the ad-hoc routing and clustering based routing.In the first part, we propose a new adaptable and extensible cross-layer design called XL-AODV (Cross Layer AODV) based on the exchange of the SNR (Signal-to-Noise-Ratio) between the network and the physical layer which has been modelled by the K distribution.We evaluate under the NS2 simulator, the performance of XL-AODV. A comparative analysis with AODV, showed for different network configurations, the efficiency of our proposition in terms of energy saving and end-to-end latency.In the second part, we propose an XL-LEACH approach which is an improvement of the original version of LEACH by its adapting to dense and large scale sensor networks. We have also taken into account the characteristics of the physical layer modelled by the K distribution.In a third part, XL-CLEACH (XL Cooperative LEACH) approach is introduced to improve XL-LEACH by integrating the cooperative communication at the MAC layer.We have proved through an analytical study and validated by simulations, the gain in terms of energy consumption, network lifetime and SER (Symbol Error Rate). The XL-LEACH and XL-CLEACH architecture were implemented under MATLAB
APA, Harvard, Vancouver, ISO, and other styles
13

Hilairet, Mickaël. "Application des outils du traitement du signal a la commande des machines tournantes." Phd thesis, Université de Nantes, 2001. http://tel.archives-ouvertes.fr/tel-00179108.

Full text
Abstract:
Notre travail a porté sur l'application des filtres de Kalman et des estimateurs fréquentiels pour l'estimation de la vitesse des machines électriques. La finalité de cette approche est la maîtrise du coût algorithmique des algorithmes de commande avec ou sans capteur mécanique.

La mise en œuvre d'un filtre de Kalman estimant le flux et la vitesse des machines asynchrones est généralement effectuée dans sa formulation matricielle, excessivement gourmande en temps de calcul. Pour cette raison, nous avons modifié la méthode de conception de ce filtre étendu, que nous avons nommé filtre de Kalman à état virtuel. La réduction très importante du coût algorithmique de ce nouveau filtre justifie son application dans les variateurs de vitesse de faible puissance où le coût de revient des cartes électroniques est conséquent. Il est également possible de conserver les équations traditionnelles du filtrage de Kalman tout en réduisant la complexité algorithmique. Pour cela, nous avons appliqué le filtrage de Kalman à deux niveaux et à deux périodes d'échantillonnage pour l'estimation de la vitesse mécanique.

Nous avons également optimisé le réglage des paramètres du filtre de Kalman. La dynamique de l'estimateur est réglée en fonction de la dynamique des grandeurs régulées, des bruits de mesure et des incertitudes paramétriques. Ce réglage permet de rendre l'estimateur robuste aux variations paramétriques et d'éviter des instabilités lorsque les estimations sont incluses dans les boucles de régulation (pour les systèmes non-linéaires).

Pour ne pas être soumis aux incertitudes paramétriques du moteur, le contenu spectral des courants statoriques consommés peut être analysé grâce à des estimateurs de vitesse à faible coût algorithmique. Les résultats expérimentaux obtenus avec une machine à courant continu et une machine asynchrone montrent que l'estimation de la vitesse est excellente en régime permanent. Cependant, les fonctionnements à basse vitesse et la capacité de poursuite ne sont pas aussi performants que ceux d'estimateurs construits à partir du modèle dynamique de la machine. L'interconnexion de deux estimateurs complémentaires, un estimateur fréquentiel et un estimateur basé sur le modèle dynamique, a été mise en œuvre pour palier aux inconvénients de chacun. Cette stratégie de pilotage a été testée expérimentalement avec succès pour une commande sans capteur mécanique d'une machine à courant continu.
APA, Harvard, Vancouver, ISO, and other styles
14

Roland, Thibault. "Microscopie par Plasmons de Surface Localisés : un outil d'imagerie optique non intrusif pouvant couvrir les échelles du nanomètre au micromètre en biologie." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2009. http://tel.archives-ouvertes.fr/tel-00441957.

Full text
Abstract:
La plupart des microscopies impliquées dans l'étude d'échantillons ou de processus biologiques utilise des marqueurs ou des sondes, qui peuvent modifier artificiellement, plus ou moins fortement, les échantillons observés.Afin de proposer une alternative à ces techniques, un microscope haute résolution à plasmons de surface (le SSPM) a été développé. Les plasmons sont des oscillations collectives des électrons libres d'un métal, dont les conditions de résonance sont très sensibles à la variation d'indice diélectrique à la surface de ce métal. L'utilisation d'un objectif à forte ouverture numérique permet la focalisation de la lumière incidente dans une petite zone de l'interface métal/milieu d'observation, et entraîne ainsi la localisation et la structuration de ces ondes. Enfin, un balayage de la surface est réalisé, permettant de détecter les variations locales d'indice diélectrique de l'échantillon. Tout d'abord, nous présentons le principe expérimental du SSPM, mais aussi la modélisation de sa réponse par l'intermédiaire d'une résolution 3D des équations de Maxwell. Dans un deuxième temps, nous étudions la structure des couches minces d'or déposées par évaporation thermique sur des substrats de verre, et utilisées lors des expériences de microscopie SSPM. Puis nous visualisons dans l'air et dans l'eau, des nanoparticules métalliques et diélectriques, de 10 à 200 nm de diamètre, et montrons qu'il est possible de les différencier suivant leur taille ou leur indice diélectrique. Enfin, nous imageons des nucléosomes (complexes nucléoprotéiques d'environ 10 nm de diamètre) non marqués, ainsi que des fibroblastes dont nous résolvons certaines des sous structures.
APA, Harvard, Vancouver, ISO, and other styles
15

Manivannan, Sivaprasath. "Measuring permeability vs depth in the unlined section of a wellbore using the descent of a fluid column made of two distinct fluids : inversion workflow, laboratory & in-situ tests." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX086/document.

Full text
Abstract:
Dans les puits de production d’eau, de pétrole, de gaz et de chaleur géothermique, ou dans les puits d’accès à un stockage d’hydrocarbures, il est précieux de connaître la perméabilité de la formation ou de sa couverture en fonction de la profondeur, soit pour améliorer le modèle de réservoir, soit pour choisir les zones dans lesquelles procéder à des opérations spéciales.On propose une technique qui consiste à balayer la hauteur du découvert par une interface entre deux liquides de viscosités très contrastées. Le débit total qui pénètre la formation à chaque instant est ainsi une fonction de la position de l’interface et de l’historique des pressions dans le puits. On doit alors résoudre un problème inverse : rechercher la perméabilité fonction de la profondeur à partir de l’historique des débits dans le temps. Dans la pratique, le puits est équipé d’un tube central. Le balayage est effectué par injection d’un liquide à pression d’entrée constante dans le tube central et soutirage d’un autre liquide par l’espace annulaire. On mesure les débits d’injection et de soutirage dont la différence est le débit qui entre dans la formation.Pour valider et améliorer cette technique, on a d’abord utilisé une maquette simulant un découvert multi-couches disponible au LMS. On a exploité aussi des essais en place réalisés dans la couverture peu perméable d’un stockage souterrain de gaz. Dans ces essais, un liquide visqueux placé dans le découvert était déplacé par un liquide moins visqueux (méthode dite « opening »). Les couches plus perméables étaient correctement identifiées (Manivannan et al. 2017), mais une estimation quantitative était un défi en raison des phénomènes transitoires qui affectent le voisinage immédiat des puits. De plus, le rayon investigué dans le massif était petit.La thèse a relevé ces défis en proposant un essai légèrement différent et une nouvelle technique d’interprétation. Les essais avec une maquette modifiée ont montré la supériorité d’une méthode « closing » dans laquelle le puits est d’abord rempli du liquide le moins visqueux. On ménage une période de stabilisation avant l’injection du liquide visqueux pour réduire les effets transitoires ; elle permet aussi d’estimer la perméabilité moyenne et l’influence de la zone endommagée à la paroi (le « skin »).Puis on conduit l’essai proprement dit. L’historique des débits mesurés en tête de puits constitue le profil d’injection dont on déduit le profil de perméabilité.. Cette estimation suppose un écoulement monophasique dans chaque couche et la même « skin » pour toute la formation. Les incertitudes principales portent sur les pressions de formation et les variations possibles du « skin ». Elles sont estimées au moyen d’un calcul analytique. On a vérifié sur la maquette que les profils de perméabilité estimés présentent une bonne concordance avec les perméabilités mesurées avant les essais.On a réalisé un essai sur un sondage de 1750 m de long atteignant une couche de sel dont on a correctement estimé la perméabilité moyenne pendant la période de stabilisation. Toutefois elle était si faible (4.0E-21 m²) que l’utilisation de deux fluides n’a pas permis de faire une différence entre les diverses parties du puits
In wells producing water, oil, gas or geothermal energy, or in access wells to hydrocarbon storage, it is critical to evaluate the permeability of the formation as a function of depth, to improve the reservoir model, and also to identify the zones where additional investigation or special completions are especially useful.A new technique is proposed, consisting of scanning the open hole (uncased section of the wellbore) with an interface between two fluids with a large viscosity contrast. The injection rate into the formation depends on interface location and well pressure history. An inverse problem should be solved: estimate permeability as a function of depth from the evolution of flow rates with time. The wells are usually equipped with a central tube. The scanning is done by injecting a liquid in the central tube at constant wellhead pressure. Injection and withdrawal rates are measured at the wellhead; the difference between these two rates is the formation injection rate.To validate and improve this technique, we used a laboratory model mimicking a multi-layer formation, already available at LMS. We also made use of in-situ tests performed on an ultra-low permeable cap rock above an underground gas storage reservoir. In these tests, a viscous fluid contained in the open hole was displaced by a less-viscous fluid (a method called opening WTLog). The more permeable layers were correctly identified (Manivannan et al. 2017), but a quantitative estimation was challenging due to transient phenomena in the vicinity of the wellbore (near-wellbore zone). In addition, the investigation radius was small.These challenges are addressed by proposing a slightly modified test procedure and a new interpretation workflow. Laboratory tests with a modified test setup showed the advantages of the ‘closing’ method in which the well is filled with a less-viscous fluid at the start of the test. We also added a stabilization period before the injection of viscous fluid to minimize the transient effects; this period is also used to estimate the average permeability of the open hole and the effect of near-wellbore damage (skin).Then the test proper is performed (closing WTLog). The injection profile of the less-viscous fluid is computed from the wellhead flow rate history. A permeability profile is estimated from the injection profile. The permeability estimation considers a monophasic flow in each layer and the same skin value for all the formation layers. Major uncertainties in the permeability estimates are caused by formation pressures and heterogeneities in skin values; they are estimated using an analytical formula. We have verified on the laboratory setup that the estimated permeability profiles are well correlated to the permeabilities measured before the tests.An attempt was made to perform a WTLog in a 1750-m long wellbore opening in a salt formation. The first phase was successful and the average permeability was correctly assessed. However, this permeability was so small (4.0E-21 m² or 4 nD) that the gauges and the flowmeters were not accurate enough to allow a clear distinction between the permeabilities of the various parts of the open hole
APA, Harvard, Vancouver, ISO, and other styles
16

Aleksovska, Ivana. "Améliorer les prévisions à court et moyen termes des modèles agronomiques en prenant mieux en compte l'incertitude des prévisions météorologiques." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30270.

Full text
Abstract:
Nous proposons de montrer l'intérêt des prévisions d'ensemble météorologiques dans l'anticipation par les agriculteurs d'application de produits phytosanitaires. En nous appuyant sur les modèles EVA relatif au ver de la grappe en vigne et Septo-LIS à la septoriose du blé, nous illustrons le potentiel des prévisions d'ensemble en les comparants aux données fréquentielles. Nous construisons des ensembles de prévision cohérents, dits "sans couture", bénéficiant de trois systèmes de prévision d'ensemble couvrant différentes échelles spatio-temporelles que nous évaluons d'un point de vue météorologique et agronomique. Après calibrage des prévisions par une approche paramétrique, un raccordement sans couture est effectué au moyen d'une mesure de distance entre prévisions et d'un algorithme d'affectation. Nous montrons que l'affectation dite hongroise permet d'obtenir des prévisions cohérentes de température satisfaisant les critères de continuité temporelle et d'unicité des membres avec une meilleure performance météorologique aux courtes échéances. Les prévisions du modèle EVA sont significativement améliorées par le calibrage des prévisions de température. Le gain des prévisions sans couture n'est pas significatif sur cette application
This PhD-thesis demonstrates the potential of ensemble weather forecasts in the decision support tools developed to assist farmers in anticipating the application of phytosanitary treatments. We consider the models EVA that simulates the dynamics of grape berry moth and Septo-LIS that forecasts the development of wheat septoria. We illustrate the potential of using ensemble weather forecasts in agronomic models compared to frequency data. We then propose strategies to design seamless ensemble weather forecasts that combine information from three ensembles with different spatio-temporal scales. Finally these seamless forecasts are evaluated from a meteorological and agronomic point of view. The design of seamless ensemble predictions is considered as a concatenation problem. Ensemble predictions are first calibrated using a parametric approach, then the concatenation of forecasts is handled with a distance measure and an assignment algorithm. We show that the so-called Hungarian method is able to provide ensembles of independent and temporally consistent forecasts. It is shown that the EVA model is significantly improved by the calibration of temperature forecasts, while the benefit of seamless forecasts is not significant
APA, Harvard, Vancouver, ISO, and other styles
17

Amiot, Nicolas. "Design of simulation platform joigning site specific radio propagation and human mobility for localization applications." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00971809.

Full text
Abstract:
This thesis focuses on the development of tools and methods dedicated for ultra wide band (UWB) localization systems in indoor environment. The thesis work was conducted within the European FP7 project Where2, about the cooperative localization in cellular networks. Data from a measurement campaign conduct during the project are used to validate the proposed algorithms. This thesis is divided in four parts : The first part is focused on the description of an original raytraing tool based on a graph description. In order to be compliant with the requirement of a mobile simulation, a new concept of rays signature enabling incremental computation, and a vectorized formalism for processing rays are described and implemented. The second part is focused on the indoor localization techniques, where a novel technique based on interval analysis approaches is presented and compared to alternative techniques. Advantageously using this approach, a specific processing based on an hypothesis testing method using received power observations to resolve ambiguities appearing in under determined localization problems is described. A third part describes different aspects of the dynamic platform. In particular a realistic mobility model based on ''steering behaviors'', a graph description of the network scene and an inter agents communication protocol are detailed. The fourth section uses measured data obtained from an heterogeneous measurement campaign to validate both the developed software platform and the proposed localization algorithms.
APA, Harvard, Vancouver, ISO, and other styles
18

Le, Mouël Frédéric. "Environnement adaptatif d'exécution distribuée d'applications dans un contexte mobile." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00004161.

Full text
Abstract:
L'informatique mobile est un domaine en plein essor qui profite des percées technologiques dans le domaine des ordinateurs portables et dans le domaine des réseaux de communication sans-fil. Ces environnements mobiles présentent des particularités : (i) dû à des limitations de taille et de poids, un terminal portable offre peu de ressources et celles-ci sont susceptibles de varier, (ii) les réseaux sans fil offrent une bande passante plus faible, sujette à des variations importantes et de fréquentes déconnexions dues aux interférences avec l'environnement, et (iii) l'environnement d'un terminal portable change suite à ses déplacements, avec l'accès, ou la disparition de l'accès, à un certain nombre de stations (mobiles ou non) et de périphériques (imprimantes, scanner, etc). L'objectif de cette thèse est de proposer une méthode qui généralise l'utilisation des ressources extérieures à un terminal portable au moyen de techniques de distribution prenant en compte ces critères de la mobilité. Nous proposons donc un système adaptatif de distribution des applications en environnements mobiles. Pour cela, nous avons construit une architecture générique se décomposant en un cadre de conception et une boîte à outils. Le cadre de conception comporte des fonctionnalités couramment utilisées pour la gestion des environnements mobile. La boîte à outils comporte des implantations permettant aux concepteurs d'applications de spécialiser les fonctionnalités avec un comportement défini. Dans ce cadre, nous avons plus précisément développé deux fonctionnalités. La fonctionnalité d'adaptation et de réaction dynamique définit, en particulier, un modèle d'entité auto-adaptative, dans laquelle les concepteurs peuvent dynamiquement spécialiser (i) les adaptations possibles de l'entité et (ii) la stratégie d'adaptation, correspondant aux changements de comportement à adopter en cas de variations dans les conditions d'exécution. La fonctionnalité de gestion des ressources et de distribution des applications caractérise les particularités de l'environnement mobile et les besoins des applications au sein d'un modèle d'utilisation de type offres / demandes. Cinq services mettent en oeuvre cette fonctionnalité : (i) le service de gestion de l'environnement, (ii) le service de gestion de l'environnement local, (iii) le service de détection et notification, (iv) le service de distribution et (v) le service de contrôle de la propagation des adaptations. Ceux-ci comportent des politiques adaptatives, basées sur le modèle de l'entité, qui peuvent être dynamiquement spécialisées par les concepteurs. Un prototype, AeDEn, a été développé et plusieurs expériences ont confirmé que la distribution en environnement mobile permet d'économiser les ressources des terminaux portables et d'améliorer les performances des applications.
APA, Harvard, Vancouver, ISO, and other styles
19

St-Georges, Nicolas. "Un outil de conception pour les réseaux maillés sans fil." Thèse, 2008. http://hdl.handle.net/1866/7217.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Raelijohn, Erick F. "Vérification des patrons temporels d’utilisation d’API sans exécution du code : une approche et un outil." Thesis, 2020. http://hdl.handle.net/1866/24332.

Full text
Abstract:
La réutilisation est une pratique courante lors du développement de logiciel. Bien souvent, cette réutilisation se fait à travers l’utilisation des librairies. Cette dernière met ses fonctionnalités à disposition des développeurs en utilisant les Interfaces de Programmation d’Application (API). En théorie, les développeurs qui utilisent les API n’ont pas forcément besoin de se préoccuper de comment les éléments internes de cette API fonctionnent. En effet, les API mettent leurs fonctionnalités à disposition des développeurs sans forcément dévoiler ce qui se passe à l’interne. Cependant, pour utiliser correctement une API il est nécessaire de respecter des contraintes d’utilisation qui sont à la fois implicites et explicites ainsi que des modèles d’utilisation. L’usage des librairies et des API est très commun dans le domaine du développement de logiciel. Cela permet aux développeurs d’utiliser les fonctionnalités proposées par l’API et ainsi de se concentrer directement sur la tâche qu’ils doivent effectuer. Toutefois, apprendre et se familiariser avec les contraintes d’usage des API sont des tâches ardues et exigent un effort cognitif considérable de la part du développeur. Les chercheurs ont tenté de corriger ce problème en étudiant les modèles d’utilisation et en analysant les traces d’utilisation de code client pour s’assurer de leurs conformités. Néanmoins, les analyses dynamiques ne sont pas possibles pendant les phases précoces de développement du logiciel, car cela requiert une implémentation minimum et l’exécution du code. Nous proposons l’outil Temporal Usage PAttern Checker (Tupac). Une approche basée sur l’analyse statique interprocédural pour vérifier la conformité du code client aux modèles d’utilisation pendant la phase de développement. Tupac peut être déployé dans un envi- ronnement de développement (IDE) et ainsi fournir des informations relatives à l’utilisation des API plus tôt pendant la phase de développement du logiciel. Nous avons évalué notre approche sur quatre projets Java avec quatre API. Les résultats ont démontré que Tupac a une bonne précision et un taux de rappel intéressant. De plus, nous avons pu conclure qu’en moyenne cela prend une demi-seconde pour vérifier la confor- mité d’un patron pour un projet tout entier. Cela démontre que Tupac peut être déployé dans un rythme de codage régulier.
In modern software development, reuse takes the form of using libraries that expose their functionality via Application Programming Interfaces (APIs). In theory, APIs allow developers to write client code that reuses library code without needing to know its internals. In practice, correctly using APIs requires respecting explicit and implicit constraints and usage patterns. This allows developers to use functionality proposed by API so that they can focus directly on the task they want to achieve. APIs require a significant effort from the developer to learn various usage constraint. Ignoring such patterns could lead to errors and design flaws. These often cannot be detected prior to integration and system testing. Researchers have attempted to solve this problem by extracting API usage patterns and analyzing client code traces for conformance. However, dynamic analysis is still impossible to perform early without a minimum of integration and execution. We propose the Temporal Usage PAttern Checker (Tupac) for API, an interprocedural static analysis approach that can verify that client code conforms to temporal API usage patterns as it is being developed. Tupac can be deployed inside an Integrated Development Environment (IDE), thus providing developers with feedback about API usage much earlier in the development process. We evaluated the effectiveness of our approach on four projects with four different APIs. Our evaluation shows that Tupac has good precision and interesting recall. Crucially, we also show that it takes, on average, half a second to check an entire project for conformance to a pattern, meaning that it can realistically be deployed in the regular coding rhythm
APA, Harvard, Vancouver, ISO, and other styles
21

Bonnefois, Guillaume. "Approche probabiliste d’adaptation posologique : concrétisation en outil de santé mobile pour l’aide à la décision clinique du trouble du déficit d’attention avec ou sans hyperactivité." Thèse, 2016. http://hdl.handle.net/1866/18591.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography