To see the other types of publications on this topic, follow the link: Système des d'exploitation mobile.

Dissertations / Theses on the topic 'Système des d'exploitation mobile'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Système des d'exploitation mobile.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Konaré, Dougoukolo. "Contribution à un système d'exploitation générique d'infrastructures urbaines avec composantes mobiles." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/MQ65586.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

El, Hatib Souad. "Une approche sémantique de détection de maliciel Android basée sur la vérification de modèles et l'apprentissage automatique." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66322.

Full text
Abstract:
Le nombre croissant de logiciels malveillants Android s’accompagne d’une préoccupation profonde liée aux problèmes de la sécurité des terminaux mobiles. Les enjeux deviennent sans conteste de plus en plus importants, suscitant ainsi beaucoup d’attention de la part de la communauté des chercheurs. En outre, la prolifération des logiciels malveillants va de pair avec la sophistication et la complexité de ces derniers. En effet, les logiciels malveillants plus élaborés, tels que les maliciels polymorphes et métamorphiques, utilisent des techniques d’obscurcissement du code pour créer de nouvelles variantes qui préservent la sémantique du code original tout en modifiant sa syntaxe, échappant ainsi aux méthodes de détection usuelles. L’ambition de notre recherche est la proposition d’une approche utilisant les méthodes formelles et l’apprentissage automatique pour la détection des maliciels sur la plateforme Android. L’approche adoptée combine l’analyse statique et l’apprentissage automatique. En effet, à partir des applications Android en format APK, nous visons l’extraction d’un modèle décrivant de manière non ambiguë le comportement de ces dernières. Le langage de spécification formelle choisi est LNT. En se basant sur le modèle généré, les comportements malicieux exprimés en logique temporelle sont vérifiés à l’aide d’un vérificateur de modèle. Ces propriétés temporelles sont utilisées comme caractéristiques par un algorithme d’apprentissage automatique pour classifier les applications Android.
The ever-increasing number of Android malware is accompanied by a deep concern about security issues in the mobile ecosystem. Unquestionably, Android malware detection has received much attention in the research community and therefore it becomes a crucial aspect of software security. Actually, malware proliferation goes hand in hand with the sophistication and complexity of malware. To illustrate, more elaborated malware like polymorphic and metamorphic malware, make use of code obfuscation techniques to build new variants that preserve the semantics of the original code but modify it’s syntax and thus escape the usual detection methods. In the present work, we propose a model-checking based approach that combines static analysis and machine learning. Mainly, from a given Android application we extract an abstract model expressed in terms of LNT, a process algebra language. Afterwards, security related Android behaviours specified by temporal logic formulas are checked against this model, the satisfaction of a specific formula is considered as a feature, finally machine learning algorithms are used to classify the application as malicious or not.
APA, Harvard, Vancouver, ISO, and other styles
3

Sokolova, Karina. "Bridging the gap between Privacy by Design and mobile systems by patterns." Thesis, Troyes, 2016. http://www.theses.fr/2016TROY0008/document.

Full text
Abstract:
De nos jours, les smartphones et les tablettes génèrent, reçoivent, mémorisent et transfèrent vers des serveurs une grande quantité de données en proposant des services aux utilisateurs via des applications mobiles facilement téléchargeables et installables. Le grand nombre de capteurs intégrés dans un smartphone lui permet de collecter de façon continue des informations très précise sur l'utilisateur et son environnement. Cette importante quantité de données privées et professionnelles devient difficile à superviser.L'approche «Privacy by Design», qui inclut sept principes, propose d'intégrer la notion du respect des données privées dès la phase de la conception d’un traitement informatique. En Europe, la directive européenne sur la protection des données privées (Directive 95/46/EC) intègre des notions du «Privacy by Design». La nouvelle loi européenne unifiée (General Data Protection Régulation) renforce la protection et le respect des données privées en prenant en compte les nouvelles technologies et confère au concept de «Privacy by Design» le rang d’une obligation légale dans le monde des services et des applications mobiles.L’objectif de cette thèse est de proposer des solutions pour améliorer la transparence des utilisations des données personnelles mobiles, la visibilité sur les systèmes informatiques, le consentement et la sécurité pour finalement rendre les applications et les systèmes mobiles plus conforme au «Privacy by (re)Design»
Nowadays, smartphones and smart tablets generate, receive, store and transfer substantial quantities of data, providing services for all possible user needs with easily installable programs, also known as mobile applications. A number of sensors integrated into smartphones allow the devices to collect very precise information about the owner and his environment at any time. The important flow of personal and business data becomes hard to manage.The “Privacy by Design” approach with 7 privacy principles states privacy can be integrated into any system from the software design stage. In Europe, the Data Protection Directive (Directive 95/46/EC) includes “Privacy by Design” principles. The new General Data Protection Regulation enforces privacy protection in the European Union, taking into account modern technologies such as mobile systems and making “Privacy by Design” not only a benefit for users, but also a legal obligation for system designers and developers.The goal of this thesis is to propose pattern-oriented solutions to cope with mobile privacy problems, such as lack of transparency, lack of consent, poor security and disregard for purpose limitation, thus giving mobile systems more Privacy by (re) Design
APA, Harvard, Vancouver, ISO, and other styles
4

Limam, Bedhiaf Imen. "Virtualisation des infrastructures des opérateurs de réseaux mobiles." Paris 6, 2011. http://www.theses.fr/2011PA066341.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Possemato, Andrea. "A Multidimensional Analysis of The Android Security Ecosystem." Electronic Thesis or Diss., Sorbonne université, 2021. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2021SORUS455.pdf.

Full text
Abstract:
Avec plus de 2,5 milliards d'appareils actifs basés sur Android, le système d'exploitation mobile de Google est désormais l'un des plus utilisés au monde.Malgré tous les efforts déployés par Google pour améliorer la sécurité de l'ensemble de l'écosystème Android, il existe encore plusieurs problèmes non résolus. Dans cette thèse, nous analysons en détail certains des problèmes ouverts qui affectent différents composants et acteurs qui font partie de l'écosystème Android. Nous commençons par l'analyse de la sécurité des communications réseau des applications Android, montrant comment, même si Android fournit plusieurs techniques pour sécuriser les communications réseau, les développeurs sont parfois obligés d'utiliser des protocoles en clair. Notre étude se poursuit par l'analyse d'un autre problème qui met en danger la sécurité et la vie privée de l'utilisateur. Nous analysons les vulnérabilités exploitées par les applications malveillantes pour réaliser des attaques de phishing et comment il n'y a toujours pas de système en place pour permettre aux applications de se protéger contre ces attaques. Enfin, nous analysons ce que nous pensons être un tres bon example de la difficulté d'assurer la sécurité dans un domaine aussi vaste qu'Android, en analysant comment les personnalisations, même si elles sont avantageuses pour les vendeurs, peuvent conduire à des problèmes de sécurité qui diminuent la sécurité globale du système Android. Dans cette thèse, pour chacun des problèmes, nous analysons le problème en détail, nous mesurons son ampleur et nous proposons une solution alternative dans le but de résoudre le problème et de faire un pas vers un écosystème Android plus sûr
With more than 2.5 billion active devices based on Android, Google's mobile operating system is now one of the most widely used in the world.Despite all the efforts made by Google to constantly improve the security of the entire Android ecosystem, there are still several problems that remain unresolved. In this thesis, we analyse in detail some of the open problems that affect different components and players that are part of and contribute to the Android ecosystem. We start with the security analysis of the network communication of Android applications, showing how, even if Android provides several techniques to secure network communications, developers sometimes are still forced to use cleartext protocols. Our study continues with the analysis of another issue that puts the security and privacy of the user at risk. We analyze the vulnerabilities exploited by malicious applications to perform phishing attacks and how there is still no system in place to allow applications to protect themselves against these attacks. Last, we analyze what we think may be the perfect representation of how difficult it is to ensure security in a domain as extensive as Android analyzing how customizations, even though beneficial to vendors, can lead to security problems that are lowering down the overall security of the Android system. In this thesis, for each of the problems, we analyze the issue in detail, we measure how widespread it is, and we propose an alternative solution with the aim of solving the problem, making a step towards a more secure Android ecosystem
APA, Harvard, Vancouver, ISO, and other styles
6

Gomez, Lacruz Maria. "Towards improving the quality of mobile app by leveraging crowdsourced feedback." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10158/document.

Full text
Abstract:
La popularité des smartphones engendre un nombre croissant d’applications mobiles qui sont publiées dans des magasins officiels d’applications. En fait, des études antérieures ont démontré que les utilisateurs d'applications sont intolérants à des problèmes de qualité (e.g., des arrêts inopinés). Les utilisateurs qui rencontrent des problèmes désinstallent fréquemment les applications et se dirigent vers des applications concurrentes. Par conséquent, détecter et prévenir rapidement des problèmes dans les applications est crucial pour rester compétitif sur le marché. Même si les développeurs testent les applications avant le déploiement, de nombreux bugs peuvent encore apparaitre dans la nature. Le grand défi qui demeure est que l'environnement reste hors du contrôle des développeurs d'applications. Plus précisément, l'écosystème mobile est confronté à une rapide évolution des plate-formes mobile, une forte fragmentation des équipements, et une grande diversité des contextes d'exécution. Cette thèse présente donc une nouvelle génération de magasins d’applications mobiles qui exploite des données collectées sur les applications, les appareils et les utilisateurs afin d'augmenter la qualité globale des applications mobiles publiées en ligne. Cette nouvelle génération de magasins d'applications peut exploiter l’intelligence collective pour obtenir des feedbacks pratiques à partir de les données retournées par les utilisateurs. Ces feedbacks concrets aident les développeurs d'applications à traiter les erreurs et les menaces potentielles qui affectent leurs applications avant la publication ou même lorsque les applications sont dans les mains des utilisateurs finaux
The popularity of smartphones is leading to an ever growing number of mobile apps that are published in official app stores. In fact, previous studies have demonstrated that app users are intolerant to quality issues (e.g., crashes). Users who encounter issues frequently uninstall apps and move to alternative apps. Hence, quickly detecting and preventing issues is crucial for staying competitive in the market. Although developers use emulators and test apps before deployment, many bugs emerge in the wild. Developing apps which run without errors along time remains a primary concern for app developers. The big challenge is that the environment is out of the app developers’ control. More specifically, the mobile ecosystem faces rapid platform evolution, high device fragmentation, and high diversity of execution contexts. This thesis introduces a new generation of app stores which exploit crowdsourced information about apps, devices and users to increase the overall quality of the delivered mobile apps. We claim that app stores can exploit the wisdom of the crowd to distill actionable insights from the feedback returned by the crowds. These actionable insights assist app developers to deal with potential errors and threats that affect their apps prior to publication or even when the apps are in the hands of end-users
APA, Harvard, Vancouver, ISO, and other styles
7

Hamzaoui, Khalil Ibrahim. "Contribution à la modélisation de la consommation d'énergie dans un dispositif mobile." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I030/document.

Full text
Abstract:
L’objectif principal de cette thèse consiste à modéliser la consommation d’énergie d’une application particulière fonctionnant sur un appareil mobile. Nous proposons un modèle de suivi du comportement énergétique, nous décrivons également une méthodologie pour identifier les paramètres du modèle. À cette fin, nous avons analysé une collection de données expérimentales recueillies lors de mon tour de France en fauteuil roulant électrique. Nous avons appliqué des outils statistiques pour obtenir les paramètres du modèle. Nous validons enfin le modèle en comparant les résultats avec d’autres données expérimentales.La première étude de cas permet de comparer l’évolution du coût énergétique dans les environnements mobiles des différents composants des smartphones en se basant sur des plusieurs modèles énergétiques.— La deuxième étude de cas traite l’évaluation, les mesures du coût d’énergie consommée et les problèmes rencontrés dans les méthodes utilisées pour l’évaluation de la consommation d’énergie. Pour une meilleure évaluation, on a introduit le cas d’étude du comportement énergétique en utilisant les machines virtuelles.— La troisième étude de cas est basée sur le traitement des résultats des mesures obtenues lors de mon tour de France en fauteuil roulant électrique connecté. L’objectif consiste en une gestion anticipée des ressources, en réalisant des mesures réelles, ensuite, de faire le suivi du comportement énergétique dans un environnement réel et diversifié. Le modèle peut être utilisé pour définir une fréquence optimale en termes de consommation d’énergie pour des situations précises sans trop dégrader la qualité de service souhaitée par l’utilisateur
The main goal of this thesis is to model the power consumption of a particular application running on a mobile device. We propose a model of energy behavior monitoring, we also describe a methodology to identify the parameters of the model. To this end, we analyzed a collection of experimental data collected during my tour de France in an electric wheelchair. We applied statistical tools to obtain the parameters of the model. Finally, we validate the model by comparing the results with other experimental data.The first case study compares the evolution of the energy cost in the mobile environments of the different components of smartphones based on several energy models.- The second case study deals with the evaluation, the measurements of the energy cost consumed and the problems encountered in the methods used for the evaluation of energy consumption. For a better evaluation, the case study of energy behavior was introduced using the virtual machines.- The third case study is based on the treatment of the results of the measurements obtained during my tour of France in a connected electric wheelchair. The goal is to anticipate resource management, realizing measurements, and then tracking energy behavior in a real and diverse environment. The model can be used to define an optimal frequency in terms of energy consumption for specific situations without degrading the quality of service desired by the user
APA, Harvard, Vancouver, ISO, and other styles
8

Achara, Jagdish Prasad. "Unveiling and Controlling Online Tracking." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM069/document.

Full text
Abstract:
Il n'est pas surprenant , compte tenu de smartphones commodité et l'utilité, pour voir leur adoption à grande échelle dans le monde entier . Les smartphones sont naturellement rassemblent un grand nombre de renseignements personnels que l'utilisateur communique , navigue sur le Web et fonctionne diverses applications . Ils sont équipés de GPS , NFC et les installations d'appareils photo numériques et les smartphones génèrent donc de nouvelles informations personnelles telles qu'elles sont utilisées . Comme ils sont presque toujours connectés à Internet , et sont à peine éteints, ils peuvent potentiellement révéler beaucoup d'informations sur les activités de leurs propriétaires. L'arrivée à proximité de la puce - montres et intelligents - lunettes va juste augmenter la quantité de renseignements personnels disponibles et les risques de fuite de confidentialité . Ce sujet est étroitement lié au projet Mobilitics qui est actuellement menée par l'Inria / Privatics et CNIL , l'autorité française de protection des données [ 1] [2 ] [3] . Par conséquent , le candidat bénéficiera des enquêtes qui sont en cours dans ce contexte, afin de comprendre la situation et les tendances. Le candidat devra également bénéficier de tous les outils de diagraphie et l'analyse que nous avons développées pour l'iOS et Android OS mobiles , ainsi que l' expérience acquise sur le sujet. Une autre question est l'arrivée de HTML5 base de systèmes d'exploitation mobiles , comme Firefox OS: il ouvre clairement de nouvelles directives qu'elle " utilise des normes ouvertes complètement et il n'y a pas de logiciel propriétaire ou technologie impliquée " ( Andreas Gal, Mozilla) . Mais quelles sont les implications d'un point de vie privée OS mobile de vue? C'est un sujet important à analyser. Au-delà de la compréhension de la situation , le candidat devra aussi explorer plusieurs directions afin d' améliorer le contrôle des appareils mobiles de la vie privée . Tout d'abord, une vie privée - par - approche de conception , lorsque cela est possible , est une excellente façon d'aborder le problème . Par exemple, la tendance actuelle est de plus en plus compter sur un nuage - Services basés , soit directement (par exemple , via Dropbox, Instagram , les réseaux sociaux ou services similaires ) , ou indirectement (par exemple , lorsqu'une sauvegarde du contact , calendrier, bases de données des comptes sont nécessaires ) . Mais en poussant des données sur les nuages ​​- systèmes basés , quelque part sur Internet , est en totale contradiction avec nos considérations de confidentialité. Par conséquent, l'idée est d'analyser et d'expérimenter avec les services de cloud personnel (par exemple , owncloud , diaspora ) qui sont entièrement gérés par l'utilisateur. Ici, le but est de comprendre les possibilités, les opportunités et la facilité d'utilisation de ces systèmes , que ce soit en remplacement ou en association avec les services de cloud commerciales. Une autre direction est d' effectuer des analyses comportementales . En effet, afin de contrôler précisément les aspects de la vie privée , à un extrême , l'utilisateur peut avoir à interagir fortement avec l'appareil (par exemple , par le biais des pop-ups chaque fois une fuite potentielle de la vie privée est identifié ) , qui a un impact négatif sur la facilité d'utilisation de l'appareil . À l'autre extrême , le contrôle de la vie privée peut être simplifiée à l'extrême , dans l'espoir de ne pas trop interférer avec l'utilisateur, comme c'est le cas avec les autorisations statiques Android ou celui - Temps pop - up de iOS6 . Ce n'est pas non plus approprié , puisque l'utilisation de renseignements personnels une fois n'est pas comparable à l'utiliser chaque minute
It is no surprise, given smartphones convenience and utility, to see their wide adoption worldwide. Smartphones are naturally gathering a lot of personal information as the user communicates, browses the web and runs various Apps. They are equipped with GPS, NFC and digital camera facilities and therefore smartphones generate new personal information as they are used. Since they are almost always connected to the Internet, and are barely turned off, they can potentially reveal a lot of information about the activities of their owners. The close arrival of smart-­‐watches and smart-­‐glasses will just increase the amount of personal information available and the privacy leakage risks. This subject is closely related to the Mobilitics project that is currently conducted by Inria/Privatics and CNIL, the French data protection authority [1][2][3]. Therefore, the candidate will benefit from the investigations that are on progress in this context, in order to understand the situation and the trends. The candidate will also benefit from all the logging and analysis tools we developed for the iOS and Android Mobile OSes, as well as the experienced gained on the subject. Another question is the arrival of HTML5 based Mobile OSes, like Firefox OS: it clearly opens new directions as it "uses completely open standards and there’s no proprietary software or technology involved" (Andreas Gal, Mozilla). But what are the implications from a Mobile OS privacy point of view? That's an important topic to analyze. Beyond understanding the situation, the candidate will also explore several directions in order to improve the privacy control of mobile devices. First of all, a privacy-­‐by-­‐design approach, when feasible, is an excellent way to tackle the problem. For instance the current trend is to rely more and more on cloud-­‐based services, either directly (e.g., via Dropbox, Instagram, Social Networks, or similar services), or indirectly (e.g., when a backup of the contact, calendar, accounts databases is needed). But pushing data on cloud-­‐based systems, somewhere on the Internet, is in total contradiction with our privacy considerations. Therefore, an idea is to analyze and experiment with personal cloud services (e.g., ownCLoud, diaspora) that are fully managed by the user. Here the goal is to understand the possibilities, the opportunities, and the usability of such systems, either as a replacement or in association with commercial cloud services. Another direction is to carry out behavioral analyses. Indeed, in order to precisely control the privacy aspects, at one extreme, the user may have to deeply interact with the device (e.g., through pop-ups each time a potential privacy leak is identified), which negatively impacts the usability of the device. At the other extreme, the privacy control may be oversimplified, in the hope not to interfere too much with the user, as is the case with the Android static authorizations or the one-­‐time pop-­‐ups of iOS6. This is not appropriate either, since using private information once is not comparable to using it every minute. A better approach could be to perform, with the help of a machine learning system for instance, a dynamic analysis of the Mobile OS or App behavior from a privacy perspective and to interfere with the user only when it is deemed appropriate. This could enable a good tradeoff between privacy control and usability, with user actions only when meaningful. How far such a behavioral analysis can go and what are the limitations of the approach (e.g., either from a CPU/battery drain perspective, or in front of programming tricks to escape the analysis) are open questions. Tainting techniques applied to Mobile OSes (e.g., Taint-­Droid) can be used as a basic bloc to build a behavioral analysis tool, but they have limited accuracy are unable to analyze native code and have poor performances
APA, Harvard, Vancouver, ISO, and other styles
9

Irolla, Paul. "Formalization of Neural Network Applications to Secure 3D Mobile Applications." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS585/document.

Full text
Abstract:
Ce travail de thèse fait partie du projet 3D NeuroSecure. C'est un projet d'investissement d'avenir, qui vise à développer une solution de collaboration sécurisée pour l'innovation thérapeutique appliquant les traitements de haute performance (HPC) au monde biomédical. Cette solution donnera la possibilité pour les experts de différents domaines de naviguer intuitivement dans l'imagerie Big Data avec un accès via des terminaux mobile. La protection des données contre les fuites de données est primordiale. En tant que tel, l'environnement client et les communications avec le serveur doivent être sécurisé. Nous avons concentré notre travail sur le développement d'une solution antivirale sur le système d'exploitation Android. Nous avons promu la création de nouveaux algorithmes, méthodes et outils qui apportent des avantages par rapport à état de l'art, mais plus important encore, qui peuvent être utilisés efficacement dans un contexte de production. C'est pourquoi, ce qui est proposé ici est souvent un compromis entre ce qui peut théoriquement être fait et son applicabilité. Les choix algorithmiques et technologiques sont motivés par une relation entre efficacité et performance. Cette thèse contribue à l'état de l'art dans les domaines suivants:Analyse statique et dynamique d'applications Android, web crawling d'application.Tout d'abord, pour rechercher des fonctions malveillantes et des vulnérabilités, il faut concevoir les outils qui extraient des informations pertinentes des applications Android. C'est la base de toute analyse. En outre, tout algorithme de classification est toujours limité par la qualité discriminative des données sous-jacentes. Une partie importante de cette thèse est la la conception d'outils d'analyse statique et dynamique efficientes, telles qu'un module de reverse engineering, un outil d'analyse de communication, un système Android instrumenté.Algorithme d'initialisation, d'apprentissage et d'anti-saturation pour réseau de neurones.Les réseaux de neurones sont initialisés au hasard. Il est possible de contrôler la distribution aléatoire sous-jacente afin de réduire l'effet de saturation, le temps de l'entrainement et la capacité à atteindre le minimum global. Nous avons développé une procédure d’initialisation qui améliore les résultats par rapport à l'état del'art. Nous avons aussi adapté l'algorithme ADAM pour prendre en compte les interdépendances avec des techniques de régularisation, en particulier le Dropout. Enfin, nous utilisons techniques d'anti-saturation et nous montrons qu'elles sont nécessaires pour entraîner correctement un réseau neuronal.Un algorithme pour représenter les sous-séquences communes à un groupe de séquences.Nous proposons un nouvel algorithme pour construire l'AntichaineEnglobante des sous-séquences communes. Il est capable de traiter et de représenter toutes les sous-séquences d'un ensemble de séquences. C'estun outil qui permet de caractériser de manière systématique un groupe de séquence. Cet algorithme est une nouvelle voie de recherche verscréation automatique de règles de détection de famille de virus
This thesis work is part of the 3D NeuroSecure project. It is an investment project, that aims to develop a secure collaborative solution for therapeutic innovation using high performance processing(HPC) technology to the biomedical world. This solution will give the opportunity for experts from different fields to navigate intuitivelyin the Big Data imaging with access via 3D light terminals. Biomedicaldata protection against data leaks is of foremost importance. As such,the client environnement and communications with the server must besecured. We focused our work on the development of antimalware solutionon the Android OS. We emphasizes the creation of new algorithms,methods and tools that carry advantages over the current state-of-the-art, but more importantly that can be used effectively ina production context. It is why, what is proposed here is often acompromise between what theoretically can be done and its applicability. Algorithmic and technological choices are motivated by arelation of efficiency and performance results. This thesis contributes to the state of the art in the following areas:Static and dynamic analysis of Android applications, application web crawling.First, to search for malicious activities and vulnerabilities, oneneeds to design the tools that extract pertinent information from Android applications. It is the basis of any analysis. Furthermore,any classifier or detector is always limited by the informative power of underlying data. An important part of this thesis is the designing of efficient static and dynamic analysis tools forapplications, such as an reverse engineering module, a networkcommunication analysis tool, an instrumented Android system, an application web crawlers etc.Neural Network initialization, training and anti-saturation techniques algorithm.Neural Networks are randomly initialized. It is possible to control the underlying random distribution in order to the reduce the saturation effect, the training time and the capacity to reach theglobal minimum. We developed an initialization procedure that enhances the results compared to the state-of-the-art. We also revisited ADAM algorithm to take into account interdependencies with regularization techniques, in particular Dropout. Last, we use anti-saturation techniques and we show that they are required tocorrectly train a neural network.An algorithm for collecting the common sequences in a sequence group.We propose a new algorithm for building the Embedding Antichain fromthe set of common subsequences. It is able to process and represent allcommon subsequences of a sequence set. It is a tool for solving the Systematic Characterization of Sequence Groups. This algorithm is a newpath of research toward the automatic creation of malware familydetection rules
APA, Harvard, Vancouver, ISO, and other styles
10

Karam, Louis. "Pseu : prototype d'un système d'exploitation universel." Aix-Marseille 3, 1993. http://www.theses.fr/1993AIX32027.

Full text
Abstract:
Les ordinateurs evoluent tres rapidement, a tel point que les concepts et les outils qui avaient ete definis pour ce qui etait, il y a peu de temps, des machines de dimension moyenne ou grande, sont maintenant appliquee aux micro-ordinateurs. C'est evident le cas des systemes d'exploitation qui peuvent paraitre comme un obstacle lorsqu'on veut utiliser l'ordinateur a un niveau autre que le langage machine. Le premier objectif de cette these est de fournir une methode logique simple, eprouvee d'un prototype de systeme d'exploitation universel. Le deuxieme objectif de cette these est de permettre aux gestionnaires qui ne possedent pas une connaissance approndie des systemes d'exploitation, de demeurer les maitres d'oeuvre de l'operation, autonomes face a des conseillers et aussi face aux vendeurs d'equipements. Le troisieme objectif est d'attirer l'attention des firmes d'informatiques aux problemes qui se posent au coeur de chaque migration, en proposant des elements de solutions qui peuvent constituer un noyau d'un developpement plus serieux
Computers are making progress so rapidly that concepts and tools primarily defined for medium or large machines are now being applied to microcomputers. It is obvious that it is the case for operating systems which can seem to be an obstacle when someone wishes to use components of a computer other than the machine language. The first objective of this thesis is to povide a proven simple and logical method of a universal operating system prototype. The second objective of this thesis is to allow administrators without an elaborate knowledge of operating systems to remain in control and independent when confronted by counsellors or computer salesmen. The third objective is to attract computer firm' attention on problems during the course of each migration by proposing solutions which can be the centre of a more complex development
APA, Harvard, Vancouver, ISO, and other styles
11

Boulanger, Philippe. "Système d'exploitation orienté réseaux et télécoms." Nice, 1990. http://www.theses.fr/1990NICE4396.

Full text
Abstract:
L'objet principal de cette thèse est la spécification opérationnelle d'un système d'exploitation orienté réseaux et télécoms. La stucture des mécanismes de communication est basée sur l'architecture OSI. Une première implémentation du système conduit à un système d'ordre général orienté vers les communications, et une deuxième a été orientée vers un noyau temps réel destiné à gérer les trois premières couches de l'OSI
APA, Harvard, Vancouver, ISO, and other styles
12

Tebbal, Hassen. "Réseau local supportant un système d'exploitation distribué." Paris 9, 1986. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1986PA090048.

Full text
Abstract:
L'étude porte sur les architectures de réseau qui puissent supporter un système d'exploitation distribué, avec toutes les contraintes de fonctionnalités; de plus le choix de l'architecture (logique) doit permettre de faire une intégration des services de communication en mixant la transmission des données, de la voix et des images, des textes à travers des fonctions de communication, en conformité avec les normes standards de connexion. La topologie du réseau et du support doivent être choisi pour bien acheminer la transmission en commutation de paquets et de circuits
To realize a distributed operating system with all problems about the functionalities, we must have good network architecture. This architecture (logical) have to permit to do the integrated services of communication mixing the transmissions of data, voice and animated pictures, texts, with communication functions agreed with standard norms connection norms. The choice of network topologies and the medium are very important, they facility the transmission available in pacquet switching and circuit switching
APA, Harvard, Vancouver, ISO, and other styles
13

Hecht, Geoffrey. "Détection et analyse de l'impact des défauts de code dans les applications mobiles." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10133/document.

Full text
Abstract:
Les applications mobiles deviennent des logiciels complexes qui doivent être développés rapidement tout en évoluant de manière continue afin de répondre aux nouveaux besoins des utilisateurs ainsi qu'à des mises à jour régulières. S'adapter à ces contraintes peut provoquer la présence de mauvais choix d'implémentation ou de conception que nous appelons défauts de code. La présence de défauts de code au sein d'une application peut dégrader la qualité et les performances d'une application. Il est alors important de connaître ces défauts mais aussi de pouvoir les détecter et les corriger. Les défauts de code sont bien connus pour les applications orientés objets et de nombreux outils permettent leurs détections, mais ce n'est pas le cas pour les applications mobiles. Les connaissances concernant les défauts de code dans les applications mobiles sont lacunaires, de plus les outils permettant la détection et la correction des défauts sont inexistants ou peu matures. Nous présentons donc ici une classification de 17 défauts de code pouvant apparaître dans les applications Android, ainsi qu'un outil permettant la détection et la correction des défauts de code sur Android. Nous appliquons et validons notre méthode sur de grandes quantités d'applications (plus de 3000) dans deux études qui évaluent la présence et l'évolution du nombre des défauts de code dans des applications populaires. De plus, nous présentons aussi deux approches destinées à évaluer l'impact de la correction des défauts de code sur les performances et la consommation d'énergie. Ces approches nous ont permis d'observer que la correction des défauts de code est bénéfique dans la plupart des cas
Mobile applications are becoming complex software systems that must be developed quickly and evolve continuously to fit new user requirements and execution contexts. However, addressing these constraints may result in poor low-level design choices, known as code smells. The presence of code smells within software systems may incidentally degrade their quality and performance, and hinder their maintenance and evolution. Thus, it is important to know this smells but also to detect and correct them. While code smells are well-known in object-oriented applications, their study in mobile applications is still in their infancy. Moreover there is a lack of tools to detect and correct them. That is why we present a classification of 17 code smells that may appear in Android applications, as well as a tool to detect and correct code smells on Android. We apply and validate our approach on large amounts of applications (over 3000) in two studies evaluating the presence and evolution of the number of code smells in popular applications. In addition, we also present two approaches to assess the impact of the correction of code smells on performance and energy consumption. These approaches have allowed us to observe that the correction of code smells is beneficial in most cases
APA, Harvard, Vancouver, ISO, and other styles
14

Langue, Tsobgny Yves Bertrand. "PARX : architecture de noyau de système d'exploitation parallèle." Phd thesis, Grenoble INPG, 1991. http://tel.archives-ouvertes.fr/tel-00340388.

Full text
Abstract:
Nous présentons ici l'architecture d'un noyau de système d'exploitation pour machines parallèles. Nous discutons les paradigmes de base pour le support d'applications parallèles au niveau d'un noyau de système. Les aspects lies aux modèles de processus et de communication sont développés. Notre démarche s'appuie d'une part sur l'étude des modèles de programmation parallèles sous-jacents aux langages, d'autre part sur les architectures de machines parallèles modernes. Cette approche sur deux fronts convergents nous permet de prendre en compte a la fois les progrès dans l'expression et l'utilisation du parallélisme, et les tendances et les possibilités technologiques de construction de machines parallèles. Le résultat principal de cette étude est la conception d'une architecture de système d'exploitation parallèle original, Parx, et la réalisation d'un noyau de communication pour ce système. Les systèmes d'exploitation ne peuvent plus prétendre offrir une gamme de services dont puissent se satisfaire toutes les applications. Ils doivent supporter un nombre croissant d'applications de types différents, et décomposent leurs fonctionnalités en un noyau qualifie de micro, léger etc., et un ensemble de serveurs de haut niveau, s'occupant de gérer des fichiers, de la mémoire etc. C'est l'approche que nous adoptons ici
APA, Harvard, Vancouver, ISO, and other styles
15

Ktata, Ismail. "Réalisation d'un système d'exploitation pour l'architecture reconfigurable dynamiquement OLLAF." Phd thesis, Université de Cergy Pontoise, 2013. http://tel.archives-ouvertes.fr/tel-00917835.

Full text
Abstract:
Actuellement on assiste à une émergence des applications des systèmes embarqués destinées à un large public d'utilisateurs. Ces applications sont de plus en plus complexes et diversifiées. Elles nécessitent une capacité de calcul accrue et doivent satisfaire, dans leurs exécutions, la prise en compte du temps réel. De plus, ces systèmes sur puce fonctionnent dans des conditions souvent difficiles et perturbantes. Ainsi, certaines contraintes temporelles, contraintes de ressources, contraintes de précédence ainsi que d'autres caractéristiques des systèmes généraux peuvent changer au cours d'exécution. Pour respecter leurs contraintes, ces systèmes doivent être capables de supporter la nature dynamique du monde réel depuis la modélisation de l'application jusqu'à son implémentation sur la plateforme d'exécution. Dans cette thèse une nouvelle approche combinant la modélisation haut niveau et l'ordonnancement sur une architecture reconfigurable dynamiquement de nouveau type, a été proposée. Cette approche est originale depuis ça conception en ciblant des applications fortement dynamiques et flexibles. De plus, l'ordonnanceur ainsi développé intègre un nouveau service qui est responsable de la prédiction des variables dynamiques afin d'aboutir à une meilleure exploitation de l'architecture et meilleure performance d'exécution. Des expérimentations ont été présentées sur des applications temps réel.
APA, Harvard, Vancouver, ISO, and other styles
16

Araujo, Ribeiro João. "Mécanismes du système d'exploitation pour le support du multimédia." Versailles-St Quentin en Yvelines, 1999. http://www.theses.fr/1999VERS0009.

Full text
Abstract:
L'augmentation de la vitesse et de la puissance des processeurs actuels nous a donné la possibilité d'utiliser les stations de travail pour réaliser des communications multimédia. Malheureusement, ce genre d'application a besoin de ressources en temps réel que les systèmes d'exploitation actuels ne sont pas capables de fournir. Les applications multimédia ont besoin d'une réservation de ressources. Le contrôle de la qualité de service ne sera pas complet s'il ne tient pas compte des limitations du processeur en ce qui concerne les besoins temps réel du multimédia. Il faut, donc, fournir des fonctionnalités pour que le système d'exploitation puisse assurer au moins des valeurs acceptables de la qualité de service demandées par les applications. Dans ce travail nous proposons un nouvel ordonnancement des tâches multimédia capable de supporter aussi bien les tâches multimédia que les tâches ordinaires. Nous proposons aussi une architecture qui permet la création et le lancement des applications multimédia. Ces propositions permettent la réalisation d'un contrôle de la qualité de service délivrée à l'utilisateur. Pour illustrer notre proposition, nous avons implémenté un prototype de l'architecture proposée sur le micro-noyau rt-mach et nous avons procèdé des modifications dans son séquenceur de tâches.
APA, Harvard, Vancouver, ISO, and other styles
17

Chebili, Mourad. "Une interface intelligente d'assistance à l'utilisation d'un système d'exploitation." Paris 8, 2000. http://www.theses.fr/2000PA081858.

Full text
Abstract:
L' @expansion des Interfaces Utilisateurs Graphiques (IUG) a été rapidement accélérée par la standardisation des systèmes de fenêtrage. Grâce à cette révolution incontournable des IHM, il semble utile et fondamental d'orienter et d'appliquer cette technologie au coeur de la machine : le Système d'Exploitation ou SE. Lors de ce travail, nous justifions la particularité des Interfaces Utlisateurs des SE et nous tentons de démasquer les problèmes actuels de celles-ci. D'autre part, nous tentons de démontrer l'interêt de faire participer activement l'IUSE dans l'Interaction Homme-Machine par le biais d'une intelligence exploitant la technologie des agents activés pour s'adapter aux besoins des utilisateurs. Dans ce cadre, nous proposons d'étudier et de formaliser une architecture intelligente favorisant la décomposition de la tâche. Cela permet la réduction de la complexité et la spécialisation des agents. . . .
APA, Harvard, Vancouver, ISO, and other styles
18

Mzouri, Azzeddine. "Les protocoles de communication dans un système d'exploitation réparti." Paris 11, 1988. http://www.theses.fr/1988PA112072.

Full text
Abstract:
Étude et réalisation de protocoles de communication dans un système d'exploitation reparti. L'importance des protocoles spécialises pour assurer la transparence de la communication inter processus est montrée. Il est aussi montre l'intérêt des protocoles généraux lorsque les objectifs du système doivent conjuguer aussi bien la transparence que l'ouverture et la portabilité. Les résultats sont illustrés au travers du cas du système d'exploitation réparti chorus, développe à l'inria.
APA, Harvard, Vancouver, ISO, and other styles
19

Grimaud, Gilles. "Camille : un système d'exploitation ouvert pour carte à microprocesseur." Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-452.pdf.

Full text
Abstract:
Antoine de Saint-Exupéry écrivait en d'autres termes que le progres technologique consiste a faire disparaitre l'outil pour que l'utilisateur jouisse pleinement du service. La carte a puce s'est rapidement integree dans notre vie courante, elle nous represente sur de grands reseaux (e. G. Banquaire, telephonique, sante) sans que nous y pretions vraiment attention. Cependant la carte a microprocesseur reste un produit de l'ingenierie electronique peu connu des informaticiens. Pourtant elle s'est averee la meilleure solution pour gerer la mobilite de l'utilisateur dans bien des cas. Aussi une nouvelle generation de cartes, equipees de veritables systemes d'exploitation, propose de charger dynamiquement donnees et codes issus de langages de programmation connus (java, visual basic, c). Cependant, les informaticiens n'ont fait aucune nouvelle utilisation de ces cartes ouvertes. Nous presentons dans ce document une etude des contraintes et besoins associes a ces nouvelles cartes. A partir de cette etude, nous avons defini une architecture logicielle distribuee entre la carte et son terminal. Nous avons prouve la validite de notre demarche en terme de securite, et une premiere maquette de cette architecture a ete realisee. Differentes experiences ont permis d'evaluer experimentalement les bien-fondes de notre demarche pour les elements logiciels que nous avons finalement places au cur de la carte.
APA, Harvard, Vancouver, ISO, and other styles
20

Ané, David. "Stratégie d'exploitation et architecture de commande du système DEFONTAINE." Nantes, 2008. http://www.theses.fr/2008NANT2136.

Full text
Abstract:
Ce travail, mené en collaboration avec la société DEFONTAINE SA, se situe dans le cadre de la recherche de solutions innovantes pour la réduction des émissions de CO2 des véhicules automobiles. Le système étudié, nommé système DEFONTAINE, a fait l’objet de deux autres thèses complémentaires, portant sur la conception de machines électriques spéciales : un actionneur linéaire et une machine synchrone à aimants. Son but est de remplir les fonctions principales du volant d’inertie d’un moteur thermique, tout en palliant ses inconvénients. En effet, si le volant réduit les acyclismes du moteur thermique à basse vitesse (au ralenti par exemple), il devient nuisible lors des accélérations du véhicule. Notre travail a consisté à modéliser et commander les actionneurs du système DEFONTAINE, afin d’envisager la supervision du fonctionnement global de celui-ci. Tout d’abord, nous avons caractérisé les acyclismes d’un moteur thermique en vue, notamment, de les émuler sur banc d’essai. Ensuite, nous nous sommes intéressés à la commande vectorielle sans capteur d’une machine synchrone traditionnelle utilisant la méthode de Matsui couplée à des observateurs par mode glissant. Nous avons alors mis en place une approche globale de l’identification et du réglage des boucles de régulation. Cette approche a été partiellement transposée à la machine synchrone non sinusoïdale du système DEFONTAINE au sein d’une commande vectorielle étendue. Deux bancs d’essais ont été mis en œuvre et nous avons validé expérimentalement la commande en moteur et en générateur de la machine synchrone à distribution sinusoïdale et la commande vectorielle étendue de la machine synchrone du système DEFONTAINE
This work, undertaken in collaboration with company DEFONTAINE SA, is within the framework of researches for innovating solutions for the reduction of CO2 car emissions. The studied system, that we will name DEFONTAINE system, was the subject of two other complementary theses, which concern the design of two electric machines : a linear actuator and a permanent magnet synchronous machine. Its goal is to fulfill the principal functions of a thermal engine flywheel, while avoiding its disadvantages. Indeed, if the flywheel reduces the acyclisms of the thermal engine at low speed, it becomes disadvantageous during the vehicle accelerations. Our work has consisted to model and to control the actuators of DEFONTAINE system, in order to supervise its operation. First of all, we characterized the acyclisms of a thermal engine in sight, in particular, to emulate them on test bench. Then, we considered the sensorless control of a traditional synchronous machine based on an improvement of the Matsui estimation method coupled to siliding mode observers. We have implemented a global approach of the identification and the corrector tuning of the various control loops. This approach was transposed to the synchronous machine with trapezoidal distribution of the DEFONTAINE system, within an extended vector control. Two test benches were built and we experimentally validated the control of the synchronous machine with sinusoidal distribution (motor and generator) and the extended vector control of the synchronous machine of DEFONTAINE system
APA, Harvard, Vancouver, ISO, and other styles
21

Gagnon, Nicolas. "Développement et étude d'un système d'exploitation tolérant aux défaillances pour système un [sic] multiprocesseur." Thèse, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://constellation.uqac.ca/1071/1/10984005.pdf.

Full text
Abstract:
Ce projet fut développé dans le cadre d'un contrat de recherche pour le ministère de la défense nationale du Canada. Ce projet porte sur le développement d'un système d'exploitation tolérant aux défaillances pour un système multiprocesseur. Il comporte également une étude statistique sur le comportement du système d'exploitation ainsi que sur les systèmes multiprocesseurs lorsqu'ils sont soumis à des injections de pannes. Le développement de tels systèmes nécessite une connaissance approfondie des divers mécanismes utilisés pour la détection des pannes ainsi que ceux utilisés pour la récupération lorsqu'une panne est détectée.
APA, Harvard, Vancouver, ISO, and other styles
22

Khemaja, Maha. "Scrables : un système de conception et d'exploitation de documents structurés." Toulouse 3, 1993. http://www.theses.fr/1993TOU30275.

Full text
Abstract:
Cette these s'inscrit dans le contexte des systemes de conception et d'utilisation assistee de documents. Elle decrit une approche et un outil appeles scrables (systeme de conception de rapports d'audit base sur un langage d'expression de structures). La conception des documents selon scrables est basee sur une description tres detaillee de leurs structures logiques et physiques. Grace a celles-ci, l'exploitation de ces documents selon une approche hypertexte est rendue possible. L'integration dans les documents de nouveaux types de liens, en particulier ceux qui sont specifiques aux documents d'audit a ete realisee. L'exploitation de la semantique liee a ces liens constitue une aide importante aux utilisateurs des documents. Certains de ces nouveaux types de liens ont ete introduits dans le but de permettre et de faciliter le recueil des connaissances a partir des documents, connaissances indispensables pour la mise en place d'un systeme intelligent d'aide a l'audit communicant avec les documents. Scrables est aujourd'hui complet, coherent et integre. Il est utilise par des auditeurs bancaires
APA, Harvard, Vancouver, ISO, and other styles
23

Peltier, Thierry. "La carte blanche : un nouveau système d'exploitation pour objets nomades." Lille 1, 1995. http://www.theses.fr/1995LIL10166.

Full text
Abstract:
Les objets nomades permettent de faciliter la mobilité des personnes nécessaire dans la société actuelle, en rendant un service identique à son porteur quels que soient le lieu et le moment. Le nombre croissant d'objets nomades aux fonctions distinctes et toutes intéressantes, nous conduit à chercher à regrouper ces fonctions sur un même support. Certains objets nomades contiennent des informations confidentielles (dossier médical) ou critique (somme d'argent). La sécurité est donc importante pour ces objets nomades, qui peuvent être également facilement perdus ou volés. Les cartes à micro-processeur intègrent le mieux ces considérations mais elles sont mono-applicatives et leur sécurité est obtenue au dépend de l'évolutivité. Notre travail consiste donc à définir un nouvel objet nomade qui permet le regroupement de plusieurs fonctions d'objets nomades, leur évolution et une sécurité équivalente à celle des cartes à micro-processeur. Nous avons tout d'abord défini un nouveau modèle de fonctionnement de l'objet nomade : le modèle de la carte blanche. Dans ce modèle, le porteur a carte blanche pour faire installer sur son objet nomade initialement vierge ou blanc, les applications de son choix. Ces applications peuvent provenir d'émetteurs distincts qui conservent le contrôle de leurs applications respectives. Elles sont indépendantes, comprennent leurs propres traitements et peuvent coopérer dans la carte blanche. Ensuite, la carte blanche est évolutive : des applications peuvent être ajoutées, mises à jour ou supprimées durant son cycle de vie. Ce modèle nécessite un véritable système d'exploitation pour assurer son fonctionnement et sa sécurité. Nous apportons différentes solutions pour l'exécution sécurisée des applications qui tiennent compte de la nature particulière des applications. Nous avons construit un prototype du système d'exploitation pour évaluer les concepts et les mécanismes de sécurité. Enfin, une chaîne de compilation a été développée pour introduire dans la carte blanche, des applications écrites dans un langage évolué.
APA, Harvard, Vancouver, ISO, and other styles
24

Deville, Damien. "CamilleRT : un système d'exploitation temps réel extensible pour carte à microprocesseur." Lille 1, 2004. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/9f245270-7f66-4a80-842b-e1a2e267e31b.

Full text
Abstract:
Le logiciel carte est de plus en plus conçu pour supporter des contraintes temps réel. Par exemple, dans les cartes Java SIM, l'application principale èst chargée de générer une clef cryptographique de session pour chaque unité de communication consommée faute de quoi l'infrastructure GSM rompt la communication. Actuellement, les systèmes d'exploitation pour carte à puce ne gèrent l'aspect temps réel qu'au cas par cas. Ils ne permettent pas aux applications <> de signifier des besoins en termes d'accès au microprocesseur, ceci pour des raisons de sécurité. Nous proposons une architecture logicielle embarquée autorisant le partage de la ressource microprocesseur entre les extensions de l'exo-noyau Camille. Cette architecture permet aux extensions de supporter des tâches temps réel au dessus de l'exo-noyau garantissant la disponibilité du microprocesseur. Nous avons montré les faiblesses des solutions initialement préconisées pour supporter du temps réel dans les exo-noyaux et nous proposons un moyen de faire collaborer les extensions sous la forme d'un partage d'une de leurs politiques d'ordonnancement et d'une mutualisation de leurs accès au microprocesseur. Nous avons mis en avant les propriétés fonctionnelles que nous attendons de ces ordonnanceurs collaboratifs et nous avons proposé une architecture distribuée permettant de charger ét de valider ces propriétés. Cette architecture de partage du microprocesseur a été validée expérimentalement dans CamilleRT.
APA, Harvard, Vancouver, ISO, and other styles
25

Pan, Zhao-Yang. "Le renouvellement du système d'exploitation : aspects économiques et mise en oeuvre." Université Louis Pasteur (Strasbourg) (1971-2008), 1992. http://www.theses.fr/1992STR1EC05.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Hanibeche, Rafik. "La sûreté de fonctionnement dans les systèmes d'exploitation répartis : application dans le système chorus/mix : mécanismes pour la haute disponibilité des données non volatiles." Paris 7, 1993. http://www.theses.fr/1993PA077057.

Full text
Abstract:
Ce memoire de these aborde l'aspect surete de fonctionnement dans les systemes d'exploitation repartis. Cet aspect est examine dans ses dimensions theorique et pratique. Du point de vue theorique, le memoire comprend une description de paradigmes utilises afin d'assurer, dans les systemes d'exploitation repartis, la surete de fonctionnement des traitements, de l'acces aux donnees non volatiles, de la communication et de l'acces aux ressources protegees. Cette description est precedee d'un expose sur les principales notions relatives a la surete de fonctionnement dans les systemes informatiques et a la structuration des systemes d'exploitation repartis. Du point de vue pratique, le memoire comprend les specifications fonctionnelle et de realisation d'une extension du systeme de gestion de fichiers reparti (sgfr) de chorus/mix. Chorus/mix est un systeme d'exploitation reparti construit de facon modulaire au-dessus d'un micro-noyau. Il offre aux processus utilisateur, une interface d'appels systeme compatible avec celle d'unix et etendue a la repartition. Le but de l'extension du sgfr de chorus/mix est d'assurer une haute disponibilite des donnees non volatiles (fichiers), lors de l'occurrence de fautes franches affectant des sites du systeme informatique gere par chorus/mix. La haute disponibilite des donnees non volatiles est assuree grace a un service de replication de systemes de fichiers. Ce service a ete developpe avec un souci d'integration harmonieuse dans le systeme existant, i. E. Sans modifier l'organisation existante du systeme. La replication, introduite par le biais de l'extension du mecanisme de mount, est entierement prise en charge par le service de replication. Ce service permet de selectionner des systemes de fichiers pour les repliquer. Le service de replication assure une totale coherence entre les exemplaires d'un systeme de fichiers replique. La disponibilite, pour la lecture, l'execution d'un fichier replique est garantie par le service de replication tant qu'il existe un site non defaillant renfermant un exemplaire du fichier
APA, Harvard, Vancouver, ISO, and other styles
27

Card, Rémy. "Masix : Un système d'exploitation multi-environnements utilisant le micro-noyau Mach : Conception et réalisation." Paris 6, 1993. http://www.theses.fr/1993PA066728.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Duquennoy, Simon. "Smews : un système d'exploitation dédié au support d'applications Web en environnement contraint." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10184/document.

Full text
Abstract:
Les travaux présentés dans ce mémoire se placent dans le contexte de l'extension des technologies du Web à l'informatique enfouie. Le Web des objets qui en résulte ouvre les portes à de nouvelles interactions en garantissant une interopérabilité aussi bien au niveau réseau qu'applicatif. Nous adressons la conception du système logiciel jouant le rôle de serveur Web au sein d'équipements fortement contraints, tels que des cartes à puce ou des capteurs. Les solutions de l'état de l'art permettant de supporter une pile protocolaire standard à faible empreinte mémoire exigent de sacrifier les performances et les fonctionnalités du système. La thèse défendue est qu'en dédiant un système d'exploitation au support d'une famille d'applications de haut niveau, nous sommes en mesure de produire un logiciel performant et consommant très peu de ressources. Nous étudions une architecture basée sur un macro-noyau intégrant gestion du matériel, pile de communication et conteneur d'applications, présentant une interface adaptée aux besoins de ces dernières
The context of this thesis is the extension of Web technologies to ambient computing. The resulting Web of Things allows novel interactions by guaranteeing interoperability at both network and applications levels. We address the design of the software system behaving as a Web server and embedded in strongly constrained devices such as smart cards or sensors. The state of the art solutions allowing to run a lightweight standard protocol stack involve poor performances and sacrifice the system features. The thesis is that by dedicating an operating system to the support of a high-level family of applications, we can produce an efficient software consuming a few resources. We study an architecture based on an macro-kernel integrating the hardware management, the communications stack and the applications container, providing an interface that fits the applications needs
APA, Harvard, Vancouver, ISO, and other styles
29

Boule, Ivan. "Fenix : un système multifenêtres intégré à Unix." Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00324433.

Full text
Abstract:
Développement d'un système multi-fenetres permettant l'exécution parallèle de plusieurs applications interactives disposant chacune d'un nombre quelconque de fenêtres sur l'écran de façon totalement transparente aux applications. L'architecture du système repose sur une séparation stricte entre, d'une part le partie opératoire regroupant les fonctions de base et, d'autre part, la partie contrôle qui gère les commandes mises à la disposition de l'utilisateur
APA, Harvard, Vancouver, ISO, and other styles
30

Boukhobza, Jalil. "Etude et analyse des performances et simulation des accès aux fichiers sur PC." Versailles-St Quentin en Yvelines, 2004. http://www.theses.fr/2004VERS0019.

Full text
Abstract:
L'évolution des sous systèmes de stockage et plus particulièrement des disques a été considérable ces dernières années. Cependant, l'écart de performance entre ces dernièrs et les processeurs ne cesse de se creuser. Il est donc essentiel de bien choisir les ressources de stockage secondaire et de les utiliser d'une manière optimale. Pour y parvenir, une compréhension complète du fonctionnement logiciel et matériel des systèmes de stockage ainsi que des interactions entre les différents modules de ce système est indispensable. Nous nous sommes intéressés dans cette thèse à la mesure et à l'analyse des performances, ainsi qu'à la simulation de l'architecture de stockage sur PC. Nous étudions en particulier les systèmes d'E/S sous Windows ou plus exactement les mécanismes d'accès aux fichiers. L'utilisation de certains paramètres dans la fonction d'ouverture et de création de fichiers CreateFile sous Windows détermine la manière avec laquelle se fera l'accès aux fichiers. Le choix d'une stratégie de lecture par anticipation, d'algorithmes d'écriture retardée, de la taille des blocs systèmes ainsi que d'autres paramètres se fait par le système d'après le paramétrage de cette même fonction. Il est donc important de connaître et de comprendre l'influence de ces choix sur les performances des E/S qui sont bien sûr relatives à la charge de travail imposée au système. Le travail effectué dans le cadre de cette thèse consiste à d'abord trouver un moyen efficace de mesure de performance spécifique à Windows, c'est-à-dire que l'on prend en compte les paramètres spécifiques à la fonction CreateFile ainsi que les tailles de requêtes. En effet, nous avons remarqué des fluctuations de performance très importantes selon la stratégie d'accès aux fichiers choisie. Nous avons par la suite développé une méthodologie d'analyse des systèmes de stockage sous Windows grâce à laquelle nous avons identifié les différents paramètres de stockage aidant à la compréhension des performances obtenues. C'est l'analyse des temps de réponse qui a permis cette compréhension. En effet, nous avons remarqué une périodicité des temps de réponse dans le cas des accès à des blocs stockés séquentiellement sur le disque, c'est ce qui nous a permis de commencer l'analyse. Une fois cette analyse effectuée, un simulateur comportemental du système de stockage de Windows a été développé. Il permet entre autres d'évaluer les performances d'une charge de travail sur une architecture donnée pour qu'un utilisateur puisse décider de la stratégie d'accès aux fichiers la plus efficace à adopter avant l'implémentation de son application
The evolution of storage subsystems and more particularly disks was considerable this last decade. However, the performance gap between secondary storage and processor is still increasing. It is therefore crucial to well choose the storage subsystem and to know how to use it in an optimal way. In order to resolve this problem, a complete understanding of the software and hardware behaviours of storage systems as well as the interactions between the different modules of the I/O system is required. We are interested in this thesis in the benchmarking, the performance analysis and the simulation of the storage architecture on PCs. We are particularly studying the I/O system under Windows and the file access mechanisms. The use of some parameters in the file opening and creation function CreateFile under Windows decides on the way files are accessed. The choice of a read ahead algorithm, a lazy write strategy, the system data block size and other parameters is done by the system and depends on those function parameters. It is thus very important to understand the impact of those choices on the I/O performance of the system that are of course relative to the injected workload. The realized work consists of finding at first an efficient way to measure the specific Windows storage system performance depending on the parameters like those specified in the CreateFile function and request sizes. We have noticed very important performance fluctuations relative to the file access strategy used. We have then developed a methodology to analyse Windows storage systems. We have identified thanks to this methodology different parameters that helped us to understand the performance fluctuations we obtained. It is the response time analysis step that allowed this understanding. We observed that response times are periodic when the accessed blocks were stored sequentially on the disk, that was the starting point of our analysis. Once the performance study and analysis done, a behavioral simulator of the Windows storage system has been developed. It allows for instance the performance evaluation of a given workload on defined storage architecture for a user to decide of the most effective access strategy to adopt before implementing his application
APA, Harvard, Vancouver, ISO, and other styles
31

Bissyandé, Tegawendé F. "Contributions à l'Amélioration du Débogage des Services Noyau dans un Système d'Exploitation Monolithique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00808877.

Full text
Abstract:
Alors que la recherche sur la qualité du code des systèmes a connu un formidable engouement, les systèmes d'exploitation sont encore aux prises avec des problèmes de fiabilité notamment dûs aux bogues de programmation au niveau des services noyaux tels que les pilotes de périphériques et l'implémentation des systèmes de fichiers. Des études ont en effet montré que que chaque version du noyau Linux contient entre 600 et 700 fautes, et que la propension des pilotes de périphériques à contenir des erreurs est jusqu'à sept fois plus élevée que toute autre partie du noyau. Ces chiffres suggèrent que le code des services noyau n'est pas suffisamment testé et que de nombreux défauts passent inaperçus ou sont difficiles à réparer par des programmeurs non-experts, ces derniers formant pourtant la majorité des développeurs de services. Cette thèse propose une nouvelle approche pour le débogage et le test des services noyau. Notre approche est focalisée sur l'interaction entre les services noyau et le noyau central en abordant la question des "trous de sûreté" dans le code de définition des fonctions de l'API du noyau. Dans le contexte du noyau Linux, nous avons mis en place une approche automatique, dénommée Diagnosys, qui repose sur l'analyse statique du code du noyau afin d'identifier, classer et exposer les différents trous de sûreté de l'API qui pourraient donner lieu à des fautes d'exécution lorsque les fonctions sont utilisées dans du code de service écrit par des développeurs ayant une connaissance limitée des subtilités du noyau. Pour illustrer notre approche, nous avons implémenté Diagnosys pour la version 2.6.32 du noyau Linux. Nous avons montré ses avantages à soutenir les développeurs dans leurs activités de tests et de débogage.
APA, Harvard, Vancouver, ISO, and other styles
32

Bécoulet, Alexandre. "Conception d'un système d'exploitation supportant nativement les architectures multiprocesseurs hétérogènes à mémoire partagée." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00814482.

Full text
Abstract:
Cette thèse présente le système d'exploitation MutekH, capable de s'exécuter nativement sur une plateforme matérielle multiprocesseur, où les processeurs peuvent être de complexité différente et disposer de spécificités ou de jeux d'instructions différents. Les travaux présentés ici s'insèrent dans un contexte où les systèmes multi-core et les processeurs spécialisés permettent tous deux de réduire la consommation énergétique et d'optimiser les performances dans les systèmes embarqués et dans les systèmes sur puce. Les autres solutions logicielles existantes permettant l'exécution d'applications sur des plateformes multiprocesseurs hétérogènes ne permettent pas, à ce jour, la communication par mémoire partagée, telle qu'on l'envisage habituellement pour les systèmes multiprocesseurs homogènes. Cette solution est la seule qui permet la réutilisation du code source d'applications parallèles existantes pour leur exécution directe par des processeurs différents. La solution proposée est mise en oeuvre en deux phases: grâce au développement d'un noyau dont l'abstraction rend transparente l'hétérogénéité des processeurs, puis à la réalisation d'un outil spécifique d'édition des liens, capable d'harmoniser le code et les données des fichiers exécutables chargés en mémoire partagée. Les résultats obtenus montrent que MutekH permet l'exécution d'applications préexistantes utilisant des services standards, tels que les Threads POSIX, sur des plateformes multiprocesseurs hétérogènes sans dégradation des performances par rapport aux autres systèmes d'exploitation opérant sur des plateformes multiprocesseurs classiques.
APA, Harvard, Vancouver, ISO, and other styles
33

Rejela, Michel. "La pêche traditionnelle Vezo du sud-ouest de Madagascar : un système d'exploitation depassé ?" Bordeaux 3, 1993. http://www.theses.fr/1993BOR30037.

Full text
Abstract:
Lapeche traditionnelle vezo, activie principale d'une population de semi-nomades marins, vivant d'autosubsistance basee sur l'exploitation des ressources halieutiques d'unemer cotiere enrichie grace a la presence des mangroves et des recifs coralliens, est appelee a se developper pour faire face a une demande locale, nationale et etrangere accrue. Lechangement d'habitudes alimentaires de certaines ethnies de l'hinterland du au boom demographique en general et a la tendance a la hausse du prix de la viande explique, en partie, cet accroissement de la demande que l' offre a du mal a satisfaire. Cependant, les stocks halieutiques de la zee sont loin d'etre surexploites du fait de l'incapacite des pecheurs traditionnels qui ne peuvent pas s'eloigner trop de la cote. Ajouter a cela l'archaisme des techniques et desmethodes, l'absence de materiels de navigation, les engins de capture rappelant une epoque ancienne, le manque de formation technique et technologique des pecheurs traditionnels vezo qui s'accrochent a l'empirisme. Est-ce a dire que cette forme de peche est un systeme d'exploitation depasse? loin s'en faut car elle est d'une importance capitale dans la mesure ou la concurrence de la peche industrielle ne peut pas etre effectuve parce qu'il manque de grandes concentrations de poisson exploitables et aussi parce queles consommateurs nationaux ont un pouvoir d'achat tres bas. Dans ces conditions, la peche traditionnelle, responsable de l'approvisionnement de la population locale en produits marins et dulcicoles doit etre developpes --
The traditional vezo fishing activity, the main one for this half-nomad fishermen population, who live on the exploitation of the fishing resources of the coastal sea (enriched by the presence of mangroves and of corallian reefs), must develop to face a growing demand of local, national and international origin. Changes of the alimentary habits among some social groups within the country, are due to the general demographic boom, and also to the increasing meat prices ; this partly explains this growth of demand that is hardly satisfied by offer. Yet, the fishing resources of the zee are far from being over exploited because traditional fishermen are unable to go very far from the coast. To this one must add old techniques and methods, the absence of sailing equipment, captures techniques reminding ancient periods, the lack of technical training for the vezo traditional fishermen, who stick to empirism. Is the existing type of fishing is an obsolete exploitation system? we would answer : "far from it", since it retains a major importance insomuch as concurrence from a more efficient industrial system cannot be effective, owing to the lack of large fish concentration to be exploited, and also because the national consumers only have very low incomes. In such conditions, traditional fishing, providing the local populations with marine and fresh water products, must be developped. This qualitative and quantitative development will not take place without
APA, Harvard, Vancouver, ISO, and other styles
34

Lebee, Pierre. "Mise en œuvre d'une architecture spécialisée pour l'exécution d'un système d'exploitation réparti : Chorus." Compiègne, 1986. http://www.theses.fr/1986COMPI249.

Full text
Abstract:
Une nouvelle génération de systèmes d'exploitation est née durant ces dix dernières années : les systèmes d'exploitation répartis. Trois concepts fondamentaux ont été étudiés : la standardisation, la répartition et le parallélisme. CHORUS fait parti de ces systèmes. Ce projet a été développé à l'INRIA, une architecture pour des systèmes répartis a été réalisée. CHORUS offre une compatibilité UNIX, et est indépendant de l'architecture matérielle des machines et des réseaux sur lesquels il est implanté. Cette thèse présente une architecture d'ordinateur complète à base de Transputers et de Clippers adaptée à CHORUS. Ce projet est développé à l'UTC dans la division IlS. La caractéristique principale de cette machine réside dans le fait que le système d'exploitation est exécuté sur un processeur qui lui est dédié : le Transputer. Les tâches des utilisateurs sont exécutées sur le Qipper. Ces deux processeurs sont appelés : processeur Hétérogène Parallèle et Réparti (HPR). La Machine HPR (MHPR) est modulaire et se compose de cinq processeurs HPR. Les Transputers sont connectés entre eux de façon optimale par leurs lignes séries, évitant ainsi les problèmes d'encombrements dus à un bus commun. Les Clippers disposent d'une mémoire locale partagée accessible par leur bus privé, ou par le bus commun. Un troisième bus est utilisé pour le DMAC réalisant les opérations d'E/S (disque, ETHERNET, X2S) et pouvant accéder à toutes les mémoires locales partagées de la machine et à toutes les mémoires privées des Qippers. Ce bus permet d'effectuer les opérations d'BIS sans détériorer la bande passante du bus commun. Les MHPR peuvent être connectées ensemble par des réseaux ETHERNET ou X25
A new generation of operating systems is born during the last ten years : distributed operating system oriented network. Three key-concepts are strongly developed : standardization, distribution and parallelism. One of these systems is CHORUS (TM). This project launched at INRIA, has elaborated an architecture far distributed systems. CHORUS offers a UNIX compatibility, is independent of the hardware architecture and of networks. This paper describes a complete computer architecture fitted to CHORUS, based on transputers and Clippers. The project is developed at UTC in the IlS department. The major feature of the machine lays on the fact that the operating system is executed by a dedicated processor : the Transputer. User's tasks are executed on a Clipper. These two processors are called a Heterogeneous Parallel Distributed processor (HPD). The HPD Machine (HPDM) is modular and may be composed of rive HPD processors. Transputers are fully connected by their serial links, avoiding bus bottlenecks. Clippers have a local shared memory accessible by their private bus, or by a global bus. A third bus is used by the DMAC supporting l/0 operations (disk, ETHERNET, X2S) and accessing the local shared memories and Clipper's private memories. This bus permits l/O operations without decreasing global bus bandwidth. HPDMs may be connected together by ETHERNET or X25 network
APA, Harvard, Vancouver, ISO, and other styles
35

Alkhatib, Bassel. "Etude et réalisation d'un système d'exploitation des connaissances : application au domaine de l'automatique." Bordeaux 1, 1993. http://www.theses.fr/1993BOR10612.

Full text
Abstract:
La premiere partie de cette these est consacree a l'etude et a la realisation de seco (systeme d'exploitation des connaissances). Ce systeme constitue un cadre general pour le developpement des bases de connaissances; ce cadre fournit, en particulier, les outils de communication et de transfert d'expertise. Une base de connaissances developpee avec seco est une base evolutive, flexible et coherente. La deuxieme partie de cette these decrit l'utilisation de seco pour elaborer un noyau d'une base generique de connaissances en automatique qui reflete l'etat de l'art et du savoir-faire de ce domaine. La premiere application de cette base est le probleme de synthese de loi de commande d'un procede industriel
APA, Harvard, Vancouver, ISO, and other styles
36

Clément, Charles. "Isolation des extensions de systèmes d'exploitation dans une machine virtuelle." Paris 6, 2009. http://www.theses.fr/2009PA066624.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Portolan, Michele. "Conception d'un système embarqué sûr et sécurisé." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0192.

Full text
Abstract:
Cette thèse s'attache à définir une méthodologie globale permettant d'augmenter le niveau de sûreté et de sécurité face à des fautes logiques transitoires (naturelles ou intentionnelles) survenant dans un système intégré matériel/logiciel, de type carte à puce. Les résultats peuvent être appliqués à tout circuit construit autour d'un cœur de microprocesseur synthétisable et d'un ensemble de périphériques spécialisés. Les méthodes de protection portent simultanément, sur le matériel, le logiciel d'application et les couches d'interface (en particulier, le système d'exploitation). Les modifications sur des descriptions de haut niveau on été privilégiées pour leurs avantages en terme de généralité, configurabilité, portabilité et pérennité. L'approche vise un bon compromis entre niveau de robustesse atteint et coûts induits, aussi bien au niveau matériel qu'au niveau performances. Elle est appliquée et validée sur un système significatif, représentatif d'un système embarqué monoprocesseur
This PhD researches a global methodology enabling to improve the dependability and security level against transient logic faults (natural or provoked) appearing inside a hardware/software integrated system, like for instance a smart cardo Results can be applied to all systems built around a synthesisable microprocessor core and a set of specialised peripherals. The protection methods operate simultaneously and in complementary manner on hardware, application software and interface layers (most noticeably, the operating system). High level modifications have been favoured for their advantages in terms of generality, configurability, portability and perpetuity. The proposed approach aims at achieving a good trade-off between robustness and overheads, from both hardware and performance point of views. It is applied on a significant system example, representative of an embedded monoprocessor system
APA, Harvard, Vancouver, ISO, and other styles
38

Ndoye, Falou. "Ordonnancement temps réel préemptif multiprocesseur avec prise en compte du coût du système d'exploitation." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-00978366.

Full text
Abstract:
Dans cette thèse nous étudions le problème d'ordonnancement temps réel multiprocesseur préemptif avec prise en compte du coût exact du système d'exploitation. Ce coût est formé de deux parties : une partie facile à déterminer, correspondant au coût de l'ordonnanceur et une partie difficile à déterminer, correspondant au coût de la préemption. Cette difficulté est due au fait qu'une préemption peut en engendrer une autre, pouvant ainsi créer un phénomène d'avalanche. Dans un premier temps, nous avons étudié l'ordonnancement hors ligne multiprocesseur de tâches indépendantes avec prise en compte du coût exact de la préemption et proposé une analyse d'ordonnançabilité fondée sur une heuristique d'ordonnancement multiprocesseur. Cette heuristique utilise la stratégie d'ordonnancement multiprocesseur par partitionnement. Pour prendre en compte le coût exact de la préemption sur chaque processeur nous avons utilisé la condition d'ordonnançabilité proposée par Meumeu et Sorel. Cette condition d'ordonnançabilité pour des tâches à priorités fixes, est basée sur une opération binaire d'ordonnancement qui permet de compter le nombre exact de préemption et d'ajouter leur coût dans l'analyse d'ordonnançabilité des tâches. L'heuristique proposée permet de maximiser le facteur d'utilisation restant afin de répartir équitablement les tâches sur les processeurs et de réduire leur temps de réponse. Elle produit une table d'ordonnancement hors ligne. Dans un second temps, nous avons étudié l'ordonnancement hors ligne multiprocesseur de tâches dépendantes avec prise en compte du coût exact de la préemption. Puisque la condition d'ordonnançabilité utilisée pour ordonnancer les tâches indépendantes ne s'applique qu'à des tâches à priorités fixes, elle ne permet pas de gérer les inversions de priorités que peuvent entraîner les tâches dépendantes. Nous avons donc proposé une nouvelle condition d'ordonnançabilité pour des tâches à priorités dynamiques. Elle prend en compte le coût exact de la préemption et les dépendances sans aucune perte de données. Ensuite en utilisant toujours la stratégie d'ordonnancement par partitionnement, nous avons proposé pour des tâches dépendantes une heuristique d'ordonnancement multiprocesseur qui réutilise cette nouvelle condition d'ordonnançabilité au niveau de chaque processeur. Cette heuristique d'ordonnancement prend en compte les coûts de communication inter-processeurs. Elle permet aussi de minimiser sur chaque processeur le makespan (temps total d'exécution) des tâches. Cette heuristique produit pour chaque processeur une table d'ordonnancement hors ligne contenant les dates de début et de fin de chaque tâches et de chaque commmunication inter-processeur. En supposant que nous avons une architecture multiprocesseur de type dirigée par le temps (Time-Triggered) pour laquelle tous les processeurs ont une référence de temps unique, nous avons proposé pour chacun des processeurs un ordonnanceur en ligne qui utilise la table d'ordonnancement produite lors de l'ordonnancement hors ligne. Cet ordonnanceur en ligne a l'avantage d'avoir un coût constant qui de plus est facile à déterminer de manière exacte. En effet il correspond uniquement au temps de lecture dans la table d'ordonnancement pour obtenir la tâche sélectionnée lors de l'analyse d'ordonnançabilité hors ligne, alors que dans les ordonnanceurs classiques en ligne ce coût correspond à mettre à jour la liste des tâches qui sont dans l'état prêt à l'exécution puis à sélectionner une tâche selon un algorithme, par exemple RM, DM, EDF, etc. Il varie donc avec le nombre de tâches prêtes à s'exécuter qui change d'une invocation à l'autre de l'ordonnanceur. C'est ce coût qui est utilisé dans les analyses d'ordonnançabilités évoquées ci-dessus. Un autre avantage est qu'il n'est pas nécessaire de synchroniser l'accès aux mémoires de données partagées par plusieurs tâches, car cette synchronisation a été déjà effectuée lors de l'analyse d'ordonnançabilité hors ligne.
APA, Harvard, Vancouver, ISO, and other styles
39

Slim, Farah. "Etude et implémentation d'algorithmes de gestion de ressources pour un système d'exploitation de réseau." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0071.

Full text
Abstract:
L’automatisation et la capacité de rendre les réseaux totalement programmables est un enjeu majeur dans l’évolution des systèmes de télécommunications. Rendre les réseaux plus flexibles et proches du système d’information est une question récurrente dans le monde des réseaux depuis de nombreuses années, mais l’émergence de nouvelles initiatives dans le cadre de l’Internet du futur, notamment avec le développement d’outils de gestion associés comme OpenStack, ont permis de développer de nouvelles approches pour la commande et la gestion des équipements de réseau. Grâce à ces nouveaux paradigmes, le secteur télécom est désormais au coeur d'une transformation digitale. Cette transformation s'appuie sur de nouvelles technologies émergentes telles que la virtualisation, les réseaux définis par logiciels, et le déploiement des services réseaux sur le cloud. L’objectif de la thèse est d'analyser les modifications qui vont affecter l'infrastructure de l'opérateur dans le but de concevoir des algorithmes de gestion de ressources adaptés au contexte de la virtualisation des fonctions réseaux
Network programmability is a major issue in the evolution of telecommunication systems. However, the emergence of new initiatives in the context of the internet of the future, such as network function virtualization and specialized tools such as Openstack makes it possible to develop new approaches to control and manage the network infrastructure. This new approach on which telecom operators rely to accelerate their digital transformation will impact not only the way networks are defined but also the main role of the operator, who now hasto manage cloud resources in combination with network resources. The main goal of the thesis is to analyze the modifications that will affect the infrastructure of the operator in order to design resource allocation algorithms adapted to the context of the virtualization of network functions
APA, Harvard, Vancouver, ISO, and other styles
40

Garcia, Samuel. "Architecture reconfigurable dynamiquement a grain fin pour le support d'un système d'exploitation temps réel." Paris 6, 2012. http://www.theses.fr/2012PA066495.

Full text
Abstract:
Les applications pressenties dans le futur partagent quatre caractéristiques majeures. Elles nécessitent une capacité de calcul accrue, nécessitent la prise en compte du temps réel, représentent un pas important en terme de complexité en comparaison avec les applications d'aujourd'hui, et devront être capables de supporter la nature dynamique du monde réel. Une architecture reconfigurable dynamiquement à grain fin (FGDRA) peut être vue comme une nouvelle évolution des FPGA d'aujourd'hui, visant à supporter des applications temps réel à la fois complexes et fortement dynamiques, tout en fournissant une puissance de calcul potentielle comparable due à la possibilité d'optimiser l'architecture applicative à un niveau de granularité très fin. Pour rendre ce type d'architecture utilisable pour les développeurs applicatifs, la complexité doit être abstraite par le biais d'un système d'exploitation et d'une suite d'outils adéquats. Cette combinaison formera une bonne solution pour supporter les applications du futur. Cette thèse présente une architecture de FGDRA innovante appelée OLLAF. Cette architecture répond à la fois aux aspect techniques liés à la reconfiguration dynamique, et aux problèmes pratiques des développeurs applicatifs. L'ensemble de l'architecture est conçue pour fonctionner en symbiose avec un système d'exploitation. Les études présentées sont plus particulièrement axées sur les mécanismes de gestion des tâches matérielles dans un système préemptif. Nous présentons d'abord nos travaux essayant d'implémenter de tels mécanismes en utilisant des FPGA existant et montrons que ces architectures existantes doivent évoluer pour pouvoir supporter efficacement un système d'exploitation dans un contexte temps réel hautement dynamique. L'architecture OLLAF est expliquée en mettant l'accent sur les mécanismes de gestion des tâches matérielles. Nous présentons ensuite deux études qui prouvent que cette approche constitue un gain important en comparaison avec les plates-formes existantes en terme d'overhead du au système d'exploitation et ce même dans des cas où la reconfiguration dynamique n'est utilisée que pour le partage de la ressource de calcul. Pour les cas temps réel fortement dynamiques, nous avons montré que non seulement cela permet de diminuer l'overhead, mais l'architecture OLLAF permet également de supporter des cas qui ne peuvent pas être envisagés avec les composants actuels
Most of anticipated future applications share four major characteristics. They might all require an increased computing capacity, they will implies to take real time into account, they represent a big step in terms of complexity compared with todays typical applications, and will have to deal with the dynamic nature of the real physical world. Fine grained dynamically reconfigurable architecture (FGDRA) can be seen as next evolution of today's FPGA, aiming at dealing with very dynamic and complex real time applications while providing comparable potential computing power due to the possibility to fine tune execution architecture at a fine grain level. To make this kind of devices usable for real application designer complexity has to be abstracted by an operating system layer and adequate tool set. This combination would form an adequate solution to support future applications. This thesis exposes an innovative FGDRA architecture called OLLAF. This architecture answer both technical issues on reconfigurable computing and practical problematics of application designers. The whole architecture is designed to work in symbiosis with an operating system. Studies presented here will more particularly focus on hardware task management mechanisms in a preemptive system. We will first present our work toward trying to implement such mechanisms using existing FPGA and show that those existing architectures have to evolve to efficiently support an operating system in a highly dynamic real time situation. The OLLAF architecture will then be explained and the hardware task management mechanism will be highlighted. We then present two studies that prove this approach to constitute a huge gain compared with existing platforms in terms of resulting operating system overhead even for static application cases where dynamical reconfiguration is used only for computing resource sharing. For highly dynamical real time cases we show that not only it could lower the overhead, but it will also support cases that existing devices just cannot support
APA, Harvard, Vancouver, ISO, and other styles
41

Gaillardon, Philippe. "Accès aux fichiers partagés : une réalisation sous le système VM." Lyon 1, 1988. http://www.theses.fr/1988LYO10064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Bourgeois, Florent. "Système de Mesure Mobile Adaptif Qualifié." Thesis, Mulhouse, 2018. http://www.theses.fr/2018MULH8953/document.

Full text
Abstract:
Les dispositifs matériels mobiles proposent des capacités de mesure à l'aide de capteurs soit embarqués, soit connectés. Ils ont vocation à être de plus en plus utilisés dans des processus de prises de mesures. Ils présentent un caractère critique dans le sens où ces informations doivent être fiables, car potentiellement utilisées dans un contexte exigeant. Malgré une grande demande, peu d'applications proposent d'assister les utilisateurs lors de relevés exploitant ces capacités. Idéalement, ces applications devraient proposer des méthodes de visualisation, de calcul, des procédures de mesure et des fonctions de communications permettant la prise en charge de capteurs connectés ou encore la génération de rapports. La rareté de ces applications se justifie par les connaissances nécessaires pour permettre la définition de procédures de mesure correctes. Ces éléments sont apportés par la métrologie et la théorie de la mesure et sont rarement présents dans les équipes de développement logiciel. De plus, chaque utilisateur effectue des activités de mesure spécifiques au domaine de son champ d'activités, ce qui implique le développement d'applications spécifiques de qualité pouvant être certifiées par des experts. Ce postulat apporte la question de recherche à laquelle les travaux présentés répondent: Comment proposer une approche pour la conception d’applications adaptées à des procédures de mesures spécifiques. Les procédures de mesure pouvant être configurées par un utilisateur final La réponse développée est une "plateforme" de conception d'applications d'assistance à la mesure. Elle permet d'assurer la conformité des procédures de mesures sans l'intervention d'expert de la métrologie. Pour cela elle est construite en utilisant des concepts issus de la métrologie, de l'Ingénierie Dirigée par les Modèles et de la logique du premier ordre. Une étude du domaine de la métrologie permet de mettre en évidence la nécessité d'une expertise des procédures de mesure impliquées dans les applications. Cette expertise comprend des termes et des règles assurant l'intégrité et la cohérence d'une procédure de mesure. Un modèle conceptuel du domaine de la métrologie est proposé. Ce modèle conceptuel est ensuite intégré au processus de développement d'une application. Cette intégration se fait par un encodage de ce modèle conceptuel sous la forme d'un schéma des connaissances de la métrologie en logique du premier ordre. Il permet, la vérification du respect des contraintes inhérentes à la métrologie dans une procédure de mesure. Cette vérification est réalisée en confrontant les procédures de mesures au schéma sous forme de requêtes. Ces requêtes sont décrites à l'aide d'un langage proposé par le schéma. Les applications d'assistance à la mesure nécessitent d'exposer à l'utilisateur un processus de mesure impliquant relevés et affichages de mesures étape par étape. Cela implique de pouvoir décrire un processus de mesure et d'en définir les interfaces et le schéma d'évolution. Pour cela, un éditeur d'application est proposé. Cet éditeur propose un langage spécifique dédié à la description d'applications d'assistance à la mesure. Ce langage est construit à partir des concepts, formalismes et outils proposés par l'environnement de métamodélisation Diagrammatic Predicate Framework (DPF). Le langage comporte des contraintes syntaxiques prévenant les erreurs de construction au niveau logiciel tout en réduisant l'écart sémantique entre l'architecte logiciel l'utilisant et un potentiel expert de la métrologie. [...]
Mobile devices offer measuring capabilities using embedded or connected sensors. They are more and more used in measuring processes. They are critical because the performed measurements must be reliable because possibly used in rigorous context. Despite a real demand, there are relatively few applications assisting users with their measuring processes that use those sensors. Such assistant should propose methods to visualise and to compute measuring procedures while using communication functions to handle connected sensors or to generate reports. Such rarity of applications arises because of the knowledges required to define correct measuring procedures. Those knowledges are brought by metrology and measurement theory and are rarely found in software development teams. Moreover, every user has specific measuring activities depending on his field of work. That implies many quality applications developments which could request expert certification. These premises bring the research question the presented works answer : What approach enables the conception of applications suitable to specific measurement procedures considering that the measurement procedures could be configured by the final user. The presented works propose a platform for the development of measuring assistant applications. The platform ensure the conformity of measuring processes without involving metrology experts. It is built upon metrology, model driven engineering and first order logic concepts. A study of metrology enables to show the need of applications measuring process expert evaluation. This evaluation encompasses terms and rules that ensure the process integrity and coherence. A conceptual model of the metrology domain is proposed. That model is then employed in the development process of applications. It is encoded into a first order logic knowledge scheme of the metrology concepts. That scheme enables to verify that metrology constraints holds in a given measuring process. The verification is performed by confronting measuring processes to the knowledge scheme in the form of requests. Those requests are described with a request language proposed by the scheme. Measuring assistant applications require to propose to the user a measuring process that sequences measuring activities. This implies to describe a measuring process, and also to define interactive interfaces and sequencing mechanism. An application editor is proposed. That editor uses a domain specific language dedicated to the description of measuring assistant applications. The language is built upon concepts, formalisms and tools proposed by the metamodeling environment : Diagrammatic Predicat Framework (DPF). The language encompasses syntactical constraints that prevent construction errors on the software level while reducing the semantical gap between the software architect using it and a potential metrology expert. Then, mobile platforms need to execute a behaviour conforming to the editor described one. An implementation modelling language is proposed. This language enables to describe measuring procedures as sequences of activities. Activities imply to measure, compute and present values. Quantities are all abstracted by numerical values. This eases their computation and the use of sensors. The implementation model is made up of software agents. A mobile application is also proposed. The application is built upon a framework of agents, an agent network composer and a runtime system. The application is able to consider an implementation model and to build the corresponding agent network in order to propose a behaviour matching the end users needs. This enables to answer to any user needs, considering he can access to the implementation model, without requiring to download several applications
APA, Harvard, Vancouver, ISO, and other styles
43

Menneteau, François. "ParObj : un noyau de système parallèle à objets." Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00005135.

Full text
Abstract:
Le travail presente dans cette these consiste a definir les fonctionnalites d'une machine virtuelle ParObj, supportant la notion d'objets concurrents et adaptee aux exigences du parallelisme massifs. Cette these s'inscrit dans le cadre du projet PARX de l'equipe "SYstemes Massivement PAralleles" du LGI qui vise a specifier et a realiser un systeme d'exploitation pour machines paralleles. A travers l'analyse de quelques Systemes Distribues a Objets connus, nous degageons les mecanismes de base que doit supporter ParObj. Nous avons arrete notre etude sur les aspects suivants : structures des entites, gestion des entites, gestion des interactions entre entites, et gestion des ressources. Dans notre approche, nous offrons dans ParObj un support parallele pour des objets passifs et actifs qui peuvent etre a la fois a gros grains (fichier, processus, etc. ), et a grains intermediaires (liste chainee, thread, etc. ). Pour une gestion encore plus fine du parallelisme, nous supportons aussi la notion d'objet fragmente. Un objet fragmente est un objet qui est decoupe en plusieurs sous-objets independants (fragments de l'objet) de taille quelconque, et qui peuvent etre accedes individuellement, de maniere concurrente. En revanche, nous avons decide de laisser aux compilateurs le soin de gerer les objets a grains fins. De plus, pour eliminer les conflits d'acces aux donnees, nous offrons un mecanisme de synchronisation des objets. L'architecture generale de ParObj est basee sur le modele original a trois niveaux de processus de PARX : le thread (qui est un flot de controle sequentiel a l'interieur d'une tache), la tache (qui est un contexte d'execution), et la Ptache (qui represente un programme parallele a l'execution). Une Ptache definit un domaine de communication et de protection, et assure la correction semantique du programme parallele (synchronisation des taches, controle des protocoles d'echanges, etc. ). Au sein d'une Ptache, la protection des objets est assuree grace a des capacites. La localisation d'une entite (qui depend de sa visibilite et de sa reference) est realise grace a un mecanisme original de designation. Les experimentations que nous avons realisees montrent que ce mecanisme est parfaitement adapte a la gestion du parallelisme massif.
APA, Harvard, Vancouver, ISO, and other styles
44

Pureur, Michel. "SAINT-EX Système d'Analyse INteractif de Tracé et d'EXploitation A Test Data Analysis Tool Based on FX+." International Foundation for Telemetering, 1996. http://hdl.handle.net/10150/608383.

Full text
Abstract:
International Telemetering Conference Proceedings / October 28-31, 1996 / Town and Country Hotel and Convention Center, San Diego, California
A sophisticated human interface can be developed for Post flight analysis with the technology of UNIX-MOTIF. Tests and measurements demand performance and reliability. SAINT-EX can meet these requirements. This paper describes the results of an appraoch in the development of DASSAULT AVIATION’s SAINT-EX software.
APA, Harvard, Vancouver, ISO, and other styles
45

De, Saint-Jean Bertrand. "Étude et développement d'un système de gravimétrie mobile." Phd thesis, Observatoire de Paris, 2008. http://tel.archives-ouvertes.fr/tel-00326276.

Full text
Abstract:
Les techniques actuelles de mesure de pesanteur terrestre, depuis les observations spatiales jusqu'aux mesures ponctuelles en surface, couvrent un large spectre de longueurs d'onde du champ de gravité de la Terre. Ces données acquises permettent non seulement la réalisation de modèles étendus de géoïde, mais aussi une meilleure compréhension des transferts de masse affectant la Terre.
Cependant, les couvertures spatiale et spectrale des mesures gravimétriques ne sont pas homogène à la surface de la Terre et certaines régions difficiles d'accès sont quasiment vierges de toute mesure. De plus, la gamme des longueurs d'onde intermédiaires (10/100 km) est mal couverte par la gravimétrie terrestre ou spatiale. La gravimétrie mobile depuis un véhicule terrestre, un bateau ou un avion apparaît donc comme la technique complémentaire capable de pallier les insuffisances des techniques gravimétriques actuelles.
C'est dans l'objectif de développer un système de gravimétrie mobile autonome que ce travail a été entrepris. Le système «Limo-G» (LIght MOving Gravimetry system) est un gravimètre vectoriel absolu, composé de trois accéléromètres et d'un système GPS à quatre antennes, embarquable dans toutes sortes de véhicule, fiable, ergonomique et peu onéreux.
Un travail métrologique effectué au laboratoire et sur le terrain a permis de concevoir et de tester une méthode d'étalonnage de l'instrument. Puis, une méthode originale de traitement conjoint des données accélérométriques et des données GPS a été développée et testée à partir de simulations issues de données réelles acquises lors d'un levé expérimental en mer. Les résultats de ces simulations indiquent que les performances du système Limo-G permettent de mesurer la pesanteur au milligal. Les améliorations nécessaires pour accroître la précision ont aussi été mises en évidence et validées par simulation.
APA, Harvard, Vancouver, ISO, and other styles
46

Saint, Jean Bertrand de. "Étude et développement d’un système de gravimétrie mobile." Observatoire de Paris (1667-....), 2008. https://theses.hal.science/tel-00326276.

Full text
Abstract:
Les techniques actuelles de mesure de pesanteur, depuis les observations spatiales jusqu’aux mesures ponctuelles en surface, couvrent un large spectre de longueurs d’onde du champ de gravité terrestre. Ces données acquises permettent non seulement la réalisation de modèles de géoïde, mais aussi une meilleure compréhension des transferts de masse affectant la Terre. Cependant, les couvertures spatiale et spectrale des mesures gravimétriques ne sont pas homogènes et certaines régions difficiles d’accès sont quasiment vierges de toute mesure. De plus, la gamme des longueurs d’onde intermédiaires (10/100 km) est mal couverte par ces techniques. La gravimétrie mobile apparaît donc comme la technique complémentaire capable de pallier les insuffisances des techniques gravimétriques actuelles. C’est dans l’objectif de développer un tel système autonome que ce travail a été entrepris. Le système «Limo-G» (LIght MOving Gravimetry system) est un gravimètre vectoriel absolu, composé de trois accéléromètres et d’un système GPS à quatre antennes, embarquable dans toutes sortes de véhicule, fiable, ergonomique et peu onéreux. Un travail métrologique effectué au laboratoire et sur le terrain a permis de concevoir et de tester une méthode d’étalonnage de l’instrument. Puis, un traitement conjoint des données accélérométriques et des données GPS a été développé et testé à partir de simulations issues de données réelles acquises lors d’un levé marin. Les résultats de ces simulations indiquent que les performances du système Limo-G permettent de mesurer la pesanteur au milligal. Les améliorations nécessaires pour accroître la précision ont aussi été mises en évidence et validées par simulation
Actual measurement techniques of the gravity field, from space to surface observations, cover a wide range of spatial resolutions of the Earth gravity field. Those data are not only used to determine high resolution geoid models, but also help to understand mass transfers inside the Earth. Nevertheless, spatial and spectral extends of gravity measurements are not homogeneous on Earth’s surface and for some isolated areas, measurements are missing. Furthermore, the intermediary spatial resolutions (10/100 km) are still badly covered by the terrestrial and space gravimetry. The mobile gravimetry from a terrestrial vehicle, a boat or a plane, appears to be the complementary technique to compensate for the lack of current gravimetry techniques. The primary objective of this work is the development of an autonomous mobile gravimetry system. The « Limo-G » (LIght MOving Gravimetry) system is an absolute vector gravimeter, consisted of three accelerometers and a GPS system with four antennas. It can be loaded on every kind of vehicles, is reliable, ergonomic and quite cheap. Metrologic surveys have been done in laboratory and on field to design and to test a calibration method of the instrument. Then, an original treatment method combining accelerometers and GPS data has been developed and tested from synthetic data based on real data acquired from an experimental survey at sea. The results of those simulations indicate that the Limo-G system reaches the milligals accuracy. The appropriate changes needed of the system to improve the accuracy of the gravity estimations have been underlined and validated using synthetic data
APA, Harvard, Vancouver, ISO, and other styles
47

Lottiaux, Renaud. "Gestion globale de la mémoire physique d'une grappe pour un système à image unique : : mise en oeuvre dans le système Gobelins." Rennes 1, 2001. http://www.theses.fr/2001REN10097.

Full text
Abstract:
Cette thèse portent sur la conception d'un système d'exploitation dédié aux grappes d'ordinateurs. L'objectif est de fournir un système à image unique au dessus d'une grappe. Pour cela, nous proposons un mécanisme logiciel appelé conteneur, fondé sur une gestion globale de la mémoire physique des noeuds d'une grappe. Ce mécanisme permet de stocker et de partager des données entre les noyaux d'un système d'exploitation hôte. Les conteneurs sont intégrés au sein du système hôte grâce à un ensemble de lieurs, qui sont des éléments logiciels intercalés entre les gestionnaires de périphériques et les services systèmes. Il est ainsi possible de réaliser très simplement une mémoire virtuelle partagée, un système de caches de fichiers coopératifs, un système de gestion de fichiers distribués et de simplifier de manière significative les mécanismes de migration de processus. Un système d'exploitation nommé Gobelins a été réalisé sur la base d'un système Linux afin de valider notre concept.
APA, Harvard, Vancouver, ISO, and other styles
48

Guez, Stéphane. "Interix : conception et réalisation d'un système d'aide intelligent sur Unix." Châtenay-Malabry, Ecole centrale de Paris, 1987. http://www.theses.fr/1987ECAP0027.

Full text
Abstract:
Interix est un système d’aide intelligent pour le système d’exploitation Unix. Interix permet aux utilisateurs débutants de poser des questions en français sur le fonctionnement et l’utilisation d’Unix (exemple : Comment effacer un fichier ?). Les réponses sont également rédigées en français. La difficulté des problèmes que posent la compréhension des requêtes d’un utilisateur débutant et la construction d’une représentation sémantique formalisée de leur signification nous a conduit à envisager l’ensemble du problème du point de vue de l’élaboration des réponses, considérée comme un véritable en soi nécessitant une réflexion particulière, des traitements et des connaissances spécifiques. En suivant un certain nombre de principes généraux, les réponses ont été conçues comme des exposés sur Unix construits et cohérents, adaptés à la situation personnelle de l’utilisateur, comme des explications, à la fois pertinentes et didactiques, compréhensibles et complètes, destinées à enrichir les connaissances de l’utilisateur et à le former à la maitrise d’Unix. Nous nous sommes particulièrement intéressés à l’analyse et à la représentation des connaissances, réparties en deux ensembles : une description opératoire des concepts du domaine, destinée à établir le lien entre les intentions de l’utilisateur et les solutions disponibles ; une représentation très riche des commandes, de leur fonctionnement et de toutes les informations pouvant intéresser l’utilisateur, destinée à servir de base au processus d’élaboration du contenu des réponses. Ce processus consiste à sélectionner les informations pertinentes, à les évaluer en fonction des données contextuelles disponibles et à les organiser.
APA, Harvard, Vancouver, ISO, and other styles
49

Morin, Christine. "Protocole d'appel de multiprocédure à distance dans le système Gothic : définition et mise en oeuvre." Phd thesis, Université Rennes 1, 1990. http://tel.archives-ouvertes.fr/tel-00432204.

Full text
Abstract:
Ces travaux de thèse se sont déroulés dans le cadre du projet Gothic, qui avait pour objectif de concevoir et réaliser un système distribué intégré tolérant aux fautes pour un réseau local de machines multiprocesseurs dotées de Mémoires Stables Rapides (MSR). Le langage de programmation du système Gothic, appelé Polygoth, introduit le concept de multiprocédure pour la construction d'applications distribuées. La multiprocédure est une généralisation de la procédure permettant l'exécution en parallèle de plusieurs calculs. Ces travaux de thèse ont porté sur la conception de protocoles de communication fiable pour la mise en oeuvre d'un protocole d'appel de multiprocédure à distance (RMPC). Nous avons défini un système de communication fiable dont les composants essentiels sont un protocole de communication fiable par messages et un protocole de diffusion fiable ordonnée. L'originalité de ces protocoles repose sur l'utilisation de la MSR associée à chaque processeur pour y ranger les informations cruciales du système de communication et des points de reprise des processus communicants. Le système de communication fiable de Gothic dépasse le cadre du protocole RMPC. Nous avons en particulier défini un protocole de rendez-vous atomique mis en oeuvre dans le système Gothic au-dessus du protocole de communication fiable par messages.
APA, Harvard, Vancouver, ISO, and other styles
50

Leclercq, Claude. "Un problème de système expert temps réel : la gestion de centres informatiques." Lille 1, 1990. http://www.theses.fr/1990LIL10143.

Full text
Abstract:
Le pilotage des centres informatiques est une tache délicate qui ne peut être confiée qu'à un ingénieur système. Sa compétence est basée sur trois qualités : une bonne connaissance technique, une longue expérience et une capacité à trouver rapidement des solutions efficaces aux problèmes qui lui sont posés. Il est ce qu'on appelle un expert. Au vu de ces caractéristiques, nous avons décidé de développer sur micro-ordinateur un système expert d'assistance au pilotage des centres informatiques, dont le but est de surveiller le fonctionnement d'un grand ordinateur. La caractéristique originale de ce système expert est de fonctionner en temps réel. Ceci pose des problèmes de variables à affectations multiples qui peuvent être à l'origine d'inconsistances dans la base de faits. De plus, la quantité d'informations gérées aurait été incompatible avec la contrainte du temps réel si nous n'avions pas eu recours à une méthode particulière de gestion des inconsistances et d'optimisation de l'inférence. Cette méthode, telle qu'elle a été implémentée dans le logiciel, fait l'objet d'une étude théorique détaillée dans le mémoire. Le fruit de ce travail est un progiciel commercialisé : « SEAT », dont l'utilisation a déjà fourni de bons résultats.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography