Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Données intelligentes.

Dissertationen zum Thema „Données intelligentes“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Données intelligentes" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Carel, Léna. „Analyse de données volumineuses dans le domaine du transport“. Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLG001.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de proposer de nouvelles méthodologies à appliquer aux données du transport public. En effet, nous sommes entourés de plus en plus de capteurs et d'ordinateurs générant d'énormes quantités de données. Dans le domaine des transports publics, les cartes sans contact génèrent des données à chaque fois que nous les utilisons, que ce soit pour les chargements ou nos trajets. Dans cette thèse, nous utilisons ces données dans deux buts distincts. Premièrement, nous voulions être capable de détecter des groupes de passagers ayant des habitudes temporelles similaires. Pour ce faire, nous avons commencé par utilisé la factorisation de matrices non-négatives comme un outil de pré-traitement pour la classification. Puis nous avons introduit l'algorithme NMF-EM permettant une réduction de la dimension et une classification de manière simultanée pour un modèle de mélange de distributions multinomiales. Dans un second temps, nous avons appliqué des méthodes de régression à ces données afin d'être capable de fournir une fourchette de ces validations probables. De même, nous avons appliqué cette méthodologie à la détection d'anomalies sur le réseau
The aim of this thesis is to apply new methodologies to public transportation data. Indeed, we are more and more surrounded by sensors and computers generating huge amount of data. In the field of public transportation, smart cards generate data about our purchases and our travels every time we use them. In this thesis, we used this data for two purposes. First of all, we wanted to be able to detect passenger's groups with similar temporal habits. To that end, we began to use the Non-negative Matrix Factorization as a pre-processing tool for clustering. Then, we introduced the NMF-EM algorithm allowing simultaneous dimension reduction and clustering on a multinomial mixture model. The second purpose of this thesis is to apply regression methods on these data to be able to forecast the number of check-ins on a network and give a range of likely check-ins. We also used this methodology to be able to detect anomalies on the network
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Marquet, Clément. „Binaire béton : Quand les infrastructures numériques aménagent la ville“. Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT036.

Der volle Inhalt der Quelle
Annotation:
Comment la ville est-elle aménagée par et avec les technologies numériques ? Pour répondre à cette question, la thèse analyse dans un même mouvement les conséquences urbaines des infrastructures informationnelles et physiques du numérique. Elle mobilise pour cela les cadres méthodologiques et analytiques des Infrastructures Studies, de la sociologie des techniques et de l’innovation et de la sociologie des problèmes publics. D’un point de vue empirique, elle propose de faire un pas de côté vis-à-vis des grandes expérimentations médiatisées de la « ville intelligente » pour étudier des transformations plus diffuses, quotidiennes, générées par les technologies numériques. Elle se compose ainsi de deux études de cas : d’une part, elle suit un programme de développement de services connectés destinés à améliorer l’accessibilité d’un réseau de transport francilien pour les personnes à mobilité réduite, d’autre part, elle analyse l’implantation discrète de nombreux data centers à Plaine Commune, au nord de la métropole parisienne, et les troubles qui s’en sont suivis localement. Le travail d’enquête articule plusieurs observations participantes, une quarantaine d’entretiens, une revue de presse ainsi que l’analyse de documents internes aux organisations. La thèse montre comment la logique d’instantanéité, de « temps réel », généralement au centre des promesses associées à la ville numérique, réclame une disponibilité accrue des travailleur.se.s, des données et des serveurs. Ainsi, dans l’entreprise de transport, les projets d’amélioration du service voyageur par l’intermédiaire des smartphones confrontent les agents de gare au double impératif de la relation face à face et des alertes du périphérique connecté. Les données cartographiques sur lesquelles reposent les services connectés, souvent prises pour acquises, nécessitent aux organisations d’inventer des collaborations inédites pour assurer leur production et leur maintenance. Les serveurs nécessaires au fonctionnement de la société numérique sont accumulés, protégés et entretenus dans des data centers, imposants bâtiments qui se concentrent géographiquement, bouleversent les environnements où ils s’implantent, décontenancent les élu.e.s et dérangent les riverain.e.s. La logique de temps réel pèse ainsi sur l’organisation sociale et spatiale des villes, et invite à repenser le développement urbain des infrastructures numériques en termes de travail, de maintenance et d’environnement – à la différence de ceux, plus couramment mobilisés, d’imaginaires sociotechniques, de promesses d’optimisation et des modèles urbains
How is the city developed by and with digital technologies? To answer this question, the thesis analyses in a single movement the urban consequences of the information and physical infrastructures of digital technology. To this end, it mobilizes the methodological and analytical frameworks of Infrastructure Studies, the sociology of techniques and innovation and the sociology of public problems. From an empirical point of view, it proposes to take a step back from the major mediatized experiments of the "smart city" to study more diffuse, everyday transformations generated by digital technologies. It consists of two case studies: on the one hand, it follows a programme to develop connected services to improve the accessibility of a Paris Region transport network for people with reduced mobility, and on the other hand, it analyses the discreet establishment of numerous data centres in Plaine Commune, in the north of the Parisian metropolitan area, and the resulting local unrest. The fieldwork includes several participating observations, about 40 interviews, a press review and the analysis of internal documents of the organizations. The thesis shows how the logic of immediacy, of "real time", generally at the centre of the promises associated with the digital city, requires an increased availability of workers, data and servers. Thus, in the transport company, projects to improve passenger service via smartphones confront station agents with the dual imperative of the face-to-face relationship and the alerts of the connected device. The cartographic data on which connected services are based, often taken for granted, require organizations to invent new collaborations to ensure their production and maintenance. The servers necessary for the functioning of the digital society are accumulated, protected and maintained in data centres, imposing buildings that are geographically concentrated, disrupt the environments in which they are located, disconcert elected officials and disturb residents. The logic of real time thus weighs on the social and spatial organization of cities, and invites us to rethink the urban development of digital infrastructures in terms of work, maintenance and the environment - unlike those, more commonly mobilized, of socio-technical imaginaries, promises of optimization and urban models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Mbacke, Abdoul Aziz. „Collecte et remontée multi-sauts de données issues de lecteurs RFID pour la surveillance d'infrastructures urbaines“. Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I052/document.

Der volle Inhalt der Quelle
Annotation:
La forte urbanisation dont le monde est témoin exige une meilleure gestion des villes. Cette gestion améliorée passe par la surveillance et la maintenance des équipements et infrastructures urbaines afin d'assurer plus de sécurité et bien-être aux habitants. Un rôle clé a donc été confié aux TIC à travers les concepts de l'IoT et des Villes Intelligentes. Cette thèse se positionne dans ce contexte et propose l'Identification par Radio Fréquence (RFID) en complément des techniques déjà utilisées. L'adoption de la RFID à grande échelle pour les centres urbains nécessite cependant de résoudre deux principaux problèmes : les collisions de lecture et la collecte et remontée des données. A travers les travaux menés dans cette thèse, nous avons d'abord cherché à identifier les solutions déjà proposées dans la littérature pour réduire les collisions. Sur la base de cette étude, nous avons proposé deux algorithmes distribués d'anticollision de lecture DEFAR et CORA. Ils permettent d'assurer un débit de lecture important en maintenant un taux de collisions et une latence de couverture faible comparés aux solutions de la littérature. Par la suite, nous avons proposé DACAR, un algorithme distribué de collecte des données issues des lecteurs RFID de manière multi-sauts. Il s'adapte en fonction du protocole d'anticollision utilisé et de la position des lecteurs déployés pour fournir un ratio de délivrance des paquets fiable et un faible délai de bout-en-bout. Une version améliorée est ultérieurement proposée pour la priorisation des données et offrir des chemins différents plus appropriés à l'aide d'une combinaison de différents paramètres grâce à la logique floue
The strong urbanization witnessed by the world requires better management of cities. This improved management involves the monitoring and maintenance of urban infrastructure and equipment to ensure greater safety and well-being for residents. A key role has therefore been given to ICTs through the concepts of IoT and Smart Cities. This thesis is positioned in this context and proposes the Radio Frequency Identification (RFID) in addition to the techniques already in use. The adoption of large-scale RFID for urban centers, however, needs to address two main issues: reading collisions and data collection and reporting. Through the work carried out in this thesis, we first sought to identify the solutions already proposed in the literature to reduce collisions. Based on this study, we proposed two distributed anti-collision algorithms DEFAR and CORA. They ensure a high read throughput by maintaining a low collapse rate and latency compared to literature solutions. Subsequently, we proposed DACAR, a distributed algorithm for collecting data from RFID readers in a multi-hop manner. It adapts according to the anti-collision protocol used and the position of deployed drives to provide a reliable packet delivery ratio and low end-to-end delay. An improved version is later proposed for the prioritization of data and to offer more suitable different paths using a combination of different parameters through fuzzy logic
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Pujol, Hadrien. „Antennes microphoniques intelligentes : localisation de sources acoustiques par Deep Learning“. Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC025.

Der volle Inhalt der Quelle
Annotation:
Pour ma thèse de doctorat, je propose d’explorer la piste de l’apprentissage supervisé, pour la tâche de localisation de sources acoustiques. Pour ce faire, j’ai développé une nouvelle architecture de réseau de neurones profonds. Mais, pour optimiser les millions de variables d’apprentissages de ce réseau, une base de données d’exemples conséquente est nécessaire. Ainsi, deux approches complémentaires sont proposées pour constituer ces exemples. La première est de réaliser des simulations numériques d’enregistrements microphoniques. La seconde, est de placer une antenne de microphones au centre d’une sphère de haut-parleurs qui permet de spatialiser les sons en 3D, et d’enregistrer directement sur l’antenne de microphones les signaux émis par ce simulateur expérimental d’ondes sonores 3D. Le réseau de neurones a ainsi pu être testé dans différentes conditions, et ses performances ont pu être comparées à celles des algorithmes conventionnels de localisation de sources acoustiques. Il en ressort que cette approche permet une localisation généralement plus précise, mais aussi beaucoup plus rapide que les algorithmes conventionnels de la littérature
For my PhD thesis, I propose to explore the path of supervised learning, for the task of locating acoustic sources. To do so, I have developed a new deep neural network architecture. But, to optimize the millions of learning variables of this network, a large database of examples is needed. Thus, two complementary approaches are proposed to constitute these examples. The first is to carry out numerical simulations of microphonic recordings. The second one is to place a microphone antenna in the center of a sphere of loudspeakers which allows to spatialize the sounds in 3D, and to record directly on the microphone antenna the signals emitted by this experimental 3D sound wave simulator. The neural network could thus be tested under different conditions, and its performances could be compared to those of conventional algorithms for locating acoustic sources. The results show that this approach allows a generally more precise localization, but also much faster than conventional algorithms in the literature
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Carel, Léna. „Analyse de données volumineuses dans le domaine du transport“. Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLG001/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de proposer de nouvelles méthodologies à appliquer aux données du transport public. En effet, nous sommes entourés de plus en plus de capteurs et d'ordinateurs générant d'énormes quantités de données. Dans le domaine des transports publics, les cartes sans contact génèrent des données à chaque fois que nous les utilisons, que ce soit pour les chargements ou nos trajets. Dans cette thèse, nous utilisons ces données dans deux buts distincts. Premièrement, nous voulions être capable de détecter des groupes de passagers ayant des habitudes temporelles similaires. Pour ce faire, nous avons commencé par utilisé la factorisation de matrices non-négatives comme un outil de pré-traitement pour la classification. Puis nous avons introduit l'algorithme NMF-EM permettant une réduction de la dimension et une classification de manière simultanée pour un modèle de mélange de distributions multinomiales. Dans un second temps, nous avons appliqué des méthodes de régression à ces données afin d'être capable de fournir une fourchette de ces validations probables. De même, nous avons appliqué cette méthodologie à la détection d'anomalies sur le réseau
The aim of this thesis is to apply new methodologies to public transportation data. Indeed, we are more and more surrounded by sensors and computers generating huge amount of data. In the field of public transportation, smart cards generate data about our purchases and our travels every time we use them. In this thesis, we used this data for two purposes. First of all, we wanted to be able to detect passenger's groups with similar temporal habits. To that end, we began to use the Non-negative Matrix Factorization as a pre-processing tool for clustering. Then, we introduced the NMF-EM algorithm allowing simultaneous dimension reduction and clustering on a multinomial mixture model. The second purpose of this thesis is to apply regression methods on these data to be able to forecast the number of check-ins on a network and give a range of likely check-ins. We also used this methodology to be able to detect anomalies on the network
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Courmont, Antoine. „Politiques des données urbaines : ce que l'open data fait au gouvernement urbain“. Thesis, Paris, Institut d'études politiques, 2016. http://www.theses.fr/2016IEPP0042/document.

Der volle Inhalt der Quelle
Annotation:
Au travers de l’étude de la politique d’open data, cette thèse analyse ce que la mise en circulation des données fait au gouvernement urbain. En effectuant une sociologie des données attentive aux transformations conjointes des données et des acteurs qui leur sont associés, la thèse pointe le pluralisme des politiques des données urbaines entendues comme les modes de composition de collectifs autour des données. La thèse repose sur une enquête ethnographique réalisée au sein de la Métropole de Lyon au cours de laquelle la politique d’ouverture de données de l’institution a été analysée en train de se faire. Ce travail ethnographique a été complété par la réalisation de 70 entretiens, le dépouillement d’archives communautaires et une comparaison partielle avec des villes nord-américaines. En suivant la chaîne des données ouvertes, la thèse met en évidence une tension entre attachement et détachement. Attachées à de vastes réseaux sociotechniques dans lesquelles elles sont insérées, les données doivent être détachées de leur environnement initial pour être mise en circulation, avant d’être ré-attachées à de nouveaux utilisateurs. Pour cela, elles subissent une série d’épreuves, au résultat incertain, desquelles émergent de nouveaux agencements qui peuvent questionner les frontières, sectorielles, institutionnelles et territoriales du gouvernement urbain. Pour conserver la maîtrise de ses politiques publiques, l’enjeu pour une collectivité est dès lors de faire de la donnée un objet de gouvernement pour parvenir à réguler les flux de données sur son territoire
Analyzing open data policies, this thesis investigates the effect of the circulation of data on urban government. This political sociology of data, which analyses jointly the transformation of data and actors associated to them, highlights the pluralism of the politics of urban data. Based on an ethnographic investigation inside the Metropolis of Lyon, the thesis studies the open data policy in the making. In addition, 70 interviews, archive material and a partial comparison with North-American cities were used for the analyze. Following the chain of open data, the thesis emphasizes a tension between attachment and detachment. Attached to vast socio-technical networks, data must be detached from their initial environment to circulate, before being re-attached to new users. In order to do this, data undergo a series of trials. The uncertain outcome of these trials produce new agencements which question sectorial, institutional and territorial borders. That’s why, to maintain control on its public policies, the challenge for a local government is to manage to regulate the flows of data on its territory. Data thus become an issue that must be governed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Pham, Thi Hai Yen. „Smart city for the preservation of urban biodiversity“. Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I043.

Der volle Inhalt der Quelle
Annotation:
Le travail vise à développer la prise en compte et les méthodes de suivi de la biodiversité en ville dans des projets de smart city en prenant ici comme démonstrateur e Campus Scientifique de l'Université de Lille, Nord de la France.Cette thèse comprend quatre parties.La première partie comprend un état de l'art concernant le rôle de la biodiversité et l'impact de l'urbanisation sur celle-ci ainsi que le développement du concept Smart City et son application dans le domaine de l'écologie.La deuxième partie crée un cadre pour le suivi de la biodiversité urbaine qui comprend la sélection d'indicateurs de surveillance, la collecte de données, l'analyse de données et l'évaluation de l'état de la biodiversité urbaine.La troisième partie présente l'application de la méthodologie présentée dans la deuxième partie au campus scientifique de l'Université de Lille. Cette partie présente successivement le campus scientifique, les indicateurs utilisés dans ce travail, la collecte et l'analyse des données et enfin le principal résultat de ce travail ainsi que les recommandations pour la préservation de la biodiversité sur le campus scientifique.La dernière partie traite des données ouvertes: l'application des données ouvertes, leur accessibilité et leur utilisation dans le domaine de la biodiversité
This work aims to develop and implement some monitoring systems in the Scientific Campus of Lille University, North of France in order to observe and evaluate its biodiversity state. This thesis includes four parts. The first part includes a literature review concerning the role of biodiversity and the impact of urbanization on it as well as the development of Smart City concept and its application in the field of ecology.The second part creates a framework for urban biodiversity monitoring includes selecting indicators to surveillance, data collection, data analyst, and evaluating the urban biodiversity status. The third part presents the application of the methodology presented in part 2 to the scientific campus of Lille University. This part presents successively the scientific campus, the indicators used in this work, data collection and analysis and finally the main outcome of this work and recommendations for the preservation of the biodiversity at the scientific campus.The last part deals with open data, the application of open data for biodiversity research. It also presents how to access and how we can use it in the biodiversity domain
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Nguyen, Trung Ky. „Génération d'histoires à partir de données de téléphone intelligentes : une approche de script Dealing with Imbalanced data sets for Human Activity Recognition using Mobile Phone sensors“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAS030.

Der volle Inhalt der Quelle
Annotation:
Le script est une structure qui décrit une séquence stéréotypée d’événements ou d’actions survenant dans notre vie quotidienne. Les histoires utilisent des scripts , avec une ou plusieurs déviations intéressantes, qui nous permettent de mieux saisir les situations quotidiennes rapportées et les faits saillants du récit. Ainsi, la notion de script est très utile dans de nombreuses applications d’intelligence ambiante telles que la surveillance de la santé et les services d’urgence. Ces dernières années, l’avancement des technologies de détection et des systèmes intégrés permettent aux systèmes de santé de collecter en permanence les activités des êtres humains, en intégrant des capteurs dans des dispositifs portables (par exemple smart-phone ou smart-watch). La reconnaissance de l’activité humaine (HAR) a ainsi connue un essor important grâce notamment à des approches d’apprentissage automatique telles que le réseau neuronal ou le réseau bayésien. Ces avancées ouvre des perspectives qui vont au delà de la simple reconnaissance d’activités. Ce manuscrit défend la thèse selon laquelle ces données de capteurs portables peuvent être utilisées pour générer des récits articulés autour de scripts en utilisant l’apprentissage automatique. Il ne s’agit pas d’une tâche triviale en raison du grand écart sémantique entre les informations brutes de capteurs et les abstractions de haut niveau présente dans les récits. A notre connaissance, il n’existe toujours pas d’approche pour générer une histoire à partir de données de capteurs en utilisant l’apprentissage automatique, même si de nombreuses approches d’apprentissage automatique (réseaux de neurones convolutifs, réseaux de neurones profonds) ont été proposées pour la reconnaissance de l’activité humaine au cours des dernières années. Afin d’atteindre notre objectif, nous proposons premièrement dans cette thèse un nouveau cadre qui traite le problème des données non uniformément distribuées (problème du biais induit par des classes majoritaires par rapport aux classes minoritaires) basé sur un apprentissage actif associé à une technique de sur-échantillonnage afin d’améliorer la macro-exactitude de classification des modèles d’apprentissage classiques comme la perception multi-couche. Deuxièmement, nous présentons un nouveau système permettant de générer automatiquement des scripts à partir de données d’activité humaine à l’aide de l’apprentissage profond. Enfin, nous proposons une approche pour l’apprentissage de scripts à partir de textes en langage naturel capable d’exploiter l’information syntaxique et sémantique sur le contexte textuel des événements. Cette approche permet l’apprentissage de l’ordonnancement d’événements à partir d’histoires décrivant des situations typiques de vie quotidienne. Les performances des méthodes proposées sont systématiquement discutées sur une base expérimentale
Script is a structure describes an appropriate sequence of events or actions in our daily life. A story, is invoked a script with one or more interesting deviations, which allows us to deeper understand about what were happened in routine behaviour of our daily life. Therefore, it is essential in many ambient intelligence applications such as healthmonitoring and emergency services. Fortunately, in recent years, with the advancement of sensing technologies and embedded systems, which make health-care system possible to collect activities of human beings continuously, by integrating sensors into wearable devices (e.g., smart-phone, smart-watch, etc.). Hence, human activity recognition (HAR) has become a hot topic interest of research over the past decades. In order to do HAR, most researches used machine learning approaches such as Neural network, Bayesian network, etc. Therefore, the ultimate goal of our thesis is to generate such kind of stories or scripts from activity data of wearable sensors using machine learning approach. However, to best of our knowledge, it is not a trivial task due to very limitation of information of wearable sensors activity data. Hence, there is still no approach to generate script/story using machine learning, even though many machine learning approaches were proposed for HAR in recent years (e.g., convolutional neural network, deep neural network, etc.) to enhance the activity recognition accuracy. In order to achieve our goal, first of all in this thesis we proposed a novel framework, which solved for the problem of imbalanced data, based on active learning combined with oversampling technique so as to enhance the recognition accuracy of conventional machine learning models i.e., Multilayer Perceptron. Secondly, we introduce a novel scheme to automatically generate scripts from wearable sensor human activity data using deep learning models, and evaluate the generated method performance. Finally, we proposed a neural event embedding approach that is able to benefit from semantic and syntactic information about the textual context of events. The approach is able to learn the stereotypical order of events from sets of narrative describing typical situations of everyday life
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Saunier, Camille, und Camille Saunier. „La protection des données personnelles des utilisateurs d'enceintes connectées «intelligentes» par le Règlement européen no 2016/679, le droit canadien et le droit québécois : approche comparatiste“. Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/38291.

Der volle Inhalt der Quelle
Annotation:
Le présent travail de recherche porte sur la protection des renseignements personnels des utilisateurs d’enceintes connectées « intelligentes ». Au regard de cet objet connecté particulier, l’étude se penchera sur la manière dont la protection des données personnelles est envisagée par le Règlement européen n°2016/679 (RGPD), la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et la Loi québécoise sur la protection des renseignements personnels dans le secteur privé (LPRPSP) tout au long du cycle de vie de la donnée. Ces différentes législations divergent tant sur leurs dates d’adoption que sur leurs systèmes juridiques. Pourtant, les rapports de faits qui les animent en font une des objets de comparaison particulièrement intéressants. Il ressort de cette étude que l’enceinte connectée « intelligente » met en évidence les insuffisances des législations étudiées vis-à-vis du rapport au temps, de la masse de données collectées mais aussi de l’opacité de la machine.
Le présent travail de recherche porte sur la protection des renseignements personnels des utilisateurs d’enceintes connectées « intelligentes ». Au regard de cet objet connecté particulier, l’étude se penchera sur la manière dont la protection des données personnelles est envisagée par le Règlement européen n°2016/679 (RGPD), la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et la Loi québécoise sur la protection des renseignements personnels dans le secteur privé (LPRPSP) tout au long du cycle de vie de la donnée. Ces différentes législations divergent tant sur leurs dates d’adoption que sur leurs systèmes juridiques. Pourtant, les rapports de faits qui les animent en font une des objets de comparaison particulièrement intéressants. Il ressort de cette étude que l’enceinte connectée « intelligente » met en évidence les insuffisances des législations étudiées vis-à-vis du rapport au temps, de la masse de données collectées mais aussi de l’opacité de la machine.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Ralitera, Tahina. „Simulations multi-agent pour les villes intelligentes : une architecture multi-environnement temporelle, spatiale et organisationnelle. Apports pour l’anticipation“. Electronic Thesis or Diss., La Réunion, 2020. http://www.theses.fr/2020LARE0017.

Der volle Inhalt der Quelle
Annotation:
La simulation multi-agent est une approche prometteuse pour la construction et la planification des villes intelligentes. Dans ce contexte, nous nous basons sur l'exemple du rechargement de véhicules électriques avec des bornes de recharge publiques. Cet exemple illustre une problématique de gestion de ressources partagées et limitées dans le temps et dans l'espace. Rolland May définit trois principales dimensions que doit intégrer le système : l'espace, l'organisation et le temps. Dans la littérature des simulations multi-agent, la dimension spatiale et la dimension sociale font l'objet de nombreuses propositions. Contrairement à cela, la considération du temps comme une dynamique du système reste sujette à très peu d'étude. De plus, si beaucoup de travaux de recherche traitent de la considération spatiale et organisationnelle dans le raisonnement de l'agent, la considération de la dynamique temporelle est souvent négligée. Cela met en évidence deux aspects sur lesquels nous aimerions contribuer : - le besoin de support d'interaction pour échanger des informations spatiale, sociale et temporelle ; - le besoin de raisonnement anticipatif prenant en compte ces informations spatiale, temporelle et organisationnelle échangées. À travers cette thèse, notre premier objectif consiste à faire évoluer le paradigme de simulation multi-agent de manière à considérer le temps comme un nouveau milieu d'interaction que nous appelons l'environnement temporel. Pour mettre en place cet environnement temporel au sein du système, nous proposons un modèle appelé Agent-Groupe-Rôle-Environnement-Temps (AGRET). Il s'agit d'une extension du modèle générique d'organisation Agent-Groupe-Rôle (AGR) et de sa variante Agent-Groupe-Rôle-Environnement (AGRE). L'originalité de notre approche consiste en la considération de la dimension temporelle comme un environnement, au même titre que l'environnement spatial et l'environnement social. L'environnement temporel est utilisé comme support pour l'échange et le stockage d'informations temporelles. Il vient en complément à l'ordonnanceur de la simulation qui gère le cycle d'activation de la simulation. L'implémentation de ce nouveau milieu d'interaction apporte de nouvelles possibilités. Une d'entre elles est l'usage des informations temporelles perçues à travers l'environnement temporel pour optimiser le raisonnement anticipatif de l'agent. Ce raisonnement anticipatif est particulièrement intéressant dans le contexte de la ville intelligente, car il augmente le réalisme de la simulation en faisant transparaître une capacité cognitive qui est propre à l'humain. Il permet également d'améliorer le mécanisme de décision de l'agent en choisissant un comportement plus pertinent qui prend en compte le contexte d'activation temporel, spatial et social de l'agent. Il se base sur des informations sur le passé, sur le présent et sur le futur planifié, que l'agent perçoit au niveau de l'environnement temporel. La prise en compte des informations futures planifiées constitue une originalité de cette approche. Pour résumer, nos deux contributions relèvent du temps. La première concerne la représentation du temps comme un milieu d'interaction : l'environnement temporel. La deuxième concerne le raisonnement temporel : un raisonnement anticipatif basé sur la perception de l'environnement spatial, de l'environnement temporel et de l'environnement social. Plus particulièrement, nous exploitons la visibilité sur la dimension future du temps qui est permise par l'environnement temporel. Dans l'exemple du rechargement des véhicules électriques, l'intégration de notre approche permet l'optimisation de la répartition des recharges dans l'espace et dans le temps. Nous montrons cela à travers une implémentation sur un modèle de simulation appelé SkuadCityModel. Plus généralement, au niveau de la ville intelligente, l'implémentation de nos contributions permet l'optimisation de la gestion des ressources dans l'espace et dans le temps
The multiagent simulation is a promising approach for smart city design and planning. In this context, we focus on the example of recharging electric vehicles on public charging points. This example illustrates a problem of managing limited and shared resources in time and space. Rolland May defines three main dimensions that should be integrated by the system: the space, the organisation and the time. In multi-agent simulations, the spatial dimension and the social dimension are the subject of numerous proposals in the literature. In opposite, time remains subject to very few studies and consideration. In addition, if a lot of research deals with spatial and organisational consideration in the agent's reasoning, the time consideration, as a system dynamic, is often overlooked.This highlights two aspects to which we want to contribute:- the need for interaction support to exchange spatial, social and temporal information;- the need for reasoning that takes this exchanged spatial, temporal and organisational information into account.Thought this thesis, our first objective aim at making the multiagent simulation paradigm evolve in order to consider time as a new medium of interaction, in the same way as the spatial environment or the organisational environment. For that purpose, we draw on existing approaches that are commonly used for modelling the space and organisations. Our model is called Agent-Group-Environment-Time (AGRET). It is an extension of the generic organisational model AGR and its variant AGRE.The originality of our approach is that it integrates the temporal dimension as an environment, in the same way as the spatial environment and the social environment. This time environment is used to support the exchange and the storage of time information. It complements the simulation scheduler which manages the simulation activation cycle. The implementation of this new interaction environment brings new possibilities. One of these possibilities is the use of temporal, spatial and social information, perceived through the environments, to optimise the agent's reasoning. In this context, we choose to focus on anticipatory reasoning which is particularly interesting in the context of the smart city. This anticipatory reasoning increases the realism of the simulation by showing a cognitive capacity that is specific to humans. It also improves the agent's decision mechanism by choosing a more relevant behaviour that takes into account the agent's temporal, spatial and social activation context. This anticipatory reasoning is based on information about the past, the present and the future, which the agent perceives through the temporal environment. The inclusion of future information in the anticipative reasoning is an original feature of this approach. This functionality is made possible by the temporal environment, which allows storing and perceiving information on the temporal dimension.To summarise, our contributions are both about time. Our first contribution is about the representation of time as an environment. In the multi-agent level, we propose an interaction support for the exchange and storage of information on space, time and organisation. Our second contribution is about temporal reasoning. We propose an anticipative reasoning based on the perception of spatial, temporal and social environments. In particular, we exploit the visibility of the future dimension of time that is allowed by the temporal environment. In the example of electric vehicles recharge, the integration of our approaches allows, at the collective level, the optimisation of the recharge distribution in space and time. We show this through an implementation on a multi-agent simulation model called SkuadCityModel. More generally, at the level of the smart city, the implementation of our contributions allows the optimisation of resource management in space and time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Ali, Shayar. „Smart City : Implementation and development of platforms for the management of SunRise Smart Campus“. Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I027/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail concerne la mise en place de plateformes professionnelles informatiques et le développement de la plate-forme SunRise pour la gestion d'une Smart City. Il s’inscrit dans le cadre du projet SunRise qui vise à transformer le campus Cité Scientifique de l'Université de Lille en une «ville intelligente et durable». Le campus est représentatif d'une petite ville de 25 000 habitants et de 100 km de réseaux urbains.Cette thèse comprend cinq parties.La première partie comprend un état de l’art concernant les Smart Cities avec ses définitions et ses composantes.La deuxième partie présente le rôle des données dans les villes intelligentes, ainsi que les dernières technologies utilisées pour la gestion des villes intelligentes. Il présente également les différentes architectures et plateformes existantes pour la gestion d'une Smart City.La troisième partie présente le démonstrateur SunRise Smart City, sur lequel s’appuie cette thèse. La partie détaille l'instrumentation du site de démonstration ainsi que le modèle SIG du démonstrateur.La quatrième partie concerne l'architecture des deux plateformes professionnelles PI System et OpenDataSoft ainsi que leur mise en place et leur utilisation pour l'analyse de la consommation d'eau.La dernière partie décrit l'architecture de la plateforme SunRise et détaille ses couches. Il présente également les étapes du développement et de l’implémentation de la plateforme
This work concerns the implementation of professional platforms and the development of SunRise platform for managing a Smart City. It is a part of SunRise project, which aims at turning the Scientific Campus of the University of Lille into a large-scale demonstrator site of the "Smart and Sustainable City". The campus is representative to a small town of 25000 inhabitants and 100 km of urban infrastructure.This thesis includes five parts. The first part includes a literature review concerning the Smart Cities with its definitions and components. The second part presents the role of data in Smart Cities, as well as the latest technologies that are used for Smart City management. It presents also the different existing architectures and platforms for management a Smart City.The Third part presents the SunRise Smart City demonstrator, which is used as a basis for this thesis. The part details the instrumentation installed in the demo site as well as the GIS model of the demonstrator. The fourth part concerns the architecture of the two professional platforms PI System and OpenDataSoft as well as their implementation and use for the analysis of water consumption.The last part describes the architecture of the platform SunRise and details its layers. It presents also the stages of the platform development and implementation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Guastella, Davide Andrea. „Dynamic learning of the environment for eco-citizen behavior“. Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30160.

Der volle Inhalt der Quelle
Annotation:
Le développement de villes intelligentes et durables nécessite le déploiement des technologies de l'information et de la communication (ITC) pour garantir de meilleurs services et informations disponibles à tout moment et partout. Comme les dispositifs IoT devenant plus puissants et moins coûteux, la mise en place d'un réseau de capteurs dans un contexte urbain peut être coûteuse. Cette thèse propose une technique pour estimer les informations environnementales manquantes dans des environnements à large échelle. Notre technique permet de fournir des informations alors que les dispositifs ne sont pas disponibles dans une zone de l'environnement non couverte par des capteurs. La contribution de notre proposition est résumée dans les points suivants : - limiter le nombre de dispositifs de détection à déployer dans un environnement urbain ; - l'exploitation de données hétérogènes acquises par des dispositifs intermittents ; - le traitement en temps réel des informations ; - l'auto-calibration du système. Notre proposition utilise l'approche AMAS (Adaptive Multi-Agent System) pour résoudre le problème de l'indisponibilité des informations. Dans cette approche, une exception est considérée comme une situation non coopérative (NCS) qui doit être résolue localement et de manière coopérative. HybridIoT exploite à la fois des informations homogènes (informations du même type) et hétérogènes (informations de différents types ou unités) acquises à partir d'un capteur disponible pour fournir des estimations précises au point de l'environnement où un capteur n'est pas disponible. La technique proposée permet d'estimer des informations environnementales précises dans des conditions de variabilité résultant du contexte d'application urbaine dans lequel le projet est situé, et qui n'ont pas été explorées par les solutions de l'état de l'art : - ouverture : les capteurs peuvent entrer ou sortir du système à tout moment sans qu'aucune configuration particulière soit nécessaire ; - large échelle : le système peut être déployé dans un contexte urbain à large échelle et assurer un fonctionnement correct avec un nombre significatif de dispositifs ; - hétérogénéité : le système traite différents types d'informations sans aucune configuration a priori. Notre proposition ne nécessite aucun paramètre d'entrée ni aucune reconfiguration. Le système peut fonctionner dans des environnements ouverts et dynamiques tels que les villes, où un grand nombre de capteurs peuvent apparaître ou disparaître à tout moment et sans aucun préavis. Nous avons fait différentes expérimentations pour comparer les résultats obtenus à plusieurs techniques standard afin d'évaluer la validité de notre proposition. Nous avons également développé un ensemble de techniques standard pour produire des résultats de base qui seront comparés à ceux obtenus par notre proposition multi-agents
The development of sustainable smart cities requires the deployment of Information and Communication Technology (ICT) to ensure better services and available information at any time and everywhere. As IoT devices become more powerful and low-cost, the implementation of an extensive sensor network for an urban context can be expensive. This thesis proposes a technique for estimating missing environmental information in large scale environments. Our technique enables providing information whereas devices are not available for an area of the environment not covered by sensing devices. The contribution of our proposal is summarized in the following points: * limiting the number of sensing devices to be deployed in an urban environment; * the exploitation of heterogeneous data acquired from intermittent devices; * real-time processing of information; * self-calibration of the system. Our proposal uses the Adaptive Multi-Agent System (AMAS) approach to solve the problem of information unavailability. In this approach, an exception is considered as a Non-Cooperative Situation (NCS) that has to be solved locally and cooperatively. HybridIoT exploits both homogeneous (information of the same type) and heterogeneous information (information of different types or units) acquired from some available sensing device to provide accurate estimates in the point of the environment where a sensing device is not available. The proposed technique enables estimating accurate environmental information under conditions of uncertainty arising from the urban application context in which the project is situated, and which have not been explored by the state-of-the-art solutions: * openness: sensors can enter or leave the system at any time without the need for any reconfiguration; * large scale: the system can be deployed in a large, urban context and ensure correct operation with a significative number of devices; * heterogeneity: the system handles different types of information without any a priori configuration. Our proposal does not require any input parameters or reconfiguration. The system can operate in open, dynamic environments such as cities, where a large number of sensing devices can appear or disappear at any time and without any prior notification. We carried out different experiments to compare the obtained results to various standard techniques to assess the validity of our proposal. We also developed a pipeline of standard techniques to produce baseline results that will be compared to those obtained by our multi-agent proposal
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Hiot, Nicolas. „Construction automatique de bases de données pour le domaine médical : Intégration de texte et maintien de la cohérence“. Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1026.

Der volle Inhalt der Quelle
Annotation:
La construction automatique de bases de données dans le domaine médical représente un défi majeur pour garantir une gestion efficace de l'information et faciliter les prises de décision. Ce projet de recherche se concentre sur l'utilisation des bases de données graphes, une approche qui offre une représentation dynamique et une interrogation efficace des données et en particulier de leur topologie. Notre projet explore la convergence entre les bases de données et le traitement automatique du langage, avec deux objectifs centraux. Tout d'abord, notre attention se porte sur le maintien de la cohérence au sein des bases de données graphes lors des mises à jour, en particulier avec des données incomplètes et des règles métiers spécifiques. Maintenir la cohérence lors des mises à jour permet de garantir un niveau de qualité de données uniforme pour tous les utilisateurs et de faciliter l'analyse. Dans un monde en constante évolution, nous donnons la priorité aux mises à jour, qui peuvent impliquer des modifications de l'instance pour accueillir de nouvelles informations. Mais comment gérer efficacement ces mises à jour successives au sein d'un système de gestion de base de données graphes ? Dans un second temps, nous nous concentrons sur l'intégration des informations extraites de documents textuels, une source de données majeure dans le domaine médical. En particulier, nous examinons les cas cliniques et de pharmacovigilance, un domaine crucial pour identifier les risques et les effets indésirables associés à l'utilisation des médicaments. Comment détecter l'information dans les textes ? Comment intégrer ces données non structurées de manière efficace dans une base de données graphe ? Comment les structurer automatiquement ? Et enfin, qu'est-ce qu'une structure valide dans ce contexte ? On s'intéresse en particulier à favoriser la recherche reproductible en adoptant une démarche transparente et documentée pour permettre la vérification et la validation indépendante de nos résultats
The automatic construction of databases in the medical field represents a major challenge for guaranteeing efficient information management and facilitating decision-making. This research project focuses on the use of graph databases, an approach that offers dynamic representation and efficient querying of data and its topology. Our project explores the convergence between databases and automatic language processing, with two central objectives. In one hand, our focus is on maintaining consistency within graph databases during updates, particularly with incomplete data and specific business rules. Maintaining consistency during updates ensures a uniform level of data quality for all users and facilitates analysis. In a world of constant change, we give priority to updates, which may involve modifying the instance to accommodate new information. But how can we effectively manage these successive updates within a graph database management system? In a second hand, we focus on the integration of information extracted from text documents, a major source of data in the medical field. In particular, we are looking at clinical cases and pharmacovigilance, a crucial area for identifying the risks and adverse effects associated with the use of drugs. But, how can we detect information in texts? How can this unstructured data be efficiently integrated into a graph database? How can it be structured automatically? And finally, what is a valid structure in this context? We are particularly interested in encouraging reproducible research by adopting a transparent and documented approach to enable independent verification and validation of our results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Calvez, Philippe. „Modélisation d'agencements énergétiques durables dans les zones urbaines intelligentes : une approche pour la réduction de l’emprise énergétique par les pratiques soutenables“. Thesis, Paris 1, 2015. http://www.theses.fr/2015PA010056.

Der volle Inhalt der Quelle
Annotation:
D’un côté, la transition écologique et les enjeux de développement durable sont de nos jours une réalité que l’on ne peut ignorer compte tenu des impacts négatifs des activités humaines sur leurs environnements. De l’autre côté, une numérisation toujours plus importante de ces environnements entraîne la génération de volumes massifs de traces numériques, qui sont autant d’indices sur le monde dans lequel vivent les acteurs de ces activités. Une difficulté non négligeable existe pour comprendre les tenants et aboutissants faisant que d’une activité à une autre, l’impact sur l’environnement mesuré dans ces travaux de recherche à travers le concept d’Emprise Énergétique (EmE) n’est pas le même. Notre approche considère l’identification sur la base de ces traces numériques, d’activité d’entités humaines et non humaines. L’instanciation de ces dernières au sein de pratiques mobilise des ressources (physiques et virtuelles) en plus ou moins grand nombre. Leurs modélisations permettraient de mieux appréhender les enjeux liés à la transition écologique. Identifier sur la base d’indicateurs quantifiables les pratiques ayant un impact réduit sur l’environnement serait une piste permettant de contribuer à cette transition. Ces pratiques, au sens de coordination de multiples entités hétérogènes dans le temps et l’espace, peuvent être formalisées sous forme de structures d’activités multidimensionnelles à l’aide de la théorie de l’Agencement et d’un ensemble d’outils mathématiques (Complexes Simpliciaux, Hypernetworks). Ces travaux de recherche tentent de modéliser le phénomène d’activité humaine et non humaine en s’appuyant sur la caractérisation du contexte de celles-ci à partir de données massives. Ces agencements sont calculés et représentés dans une application (IMhoTEP) ayant pour but de construire ces structures complexes non pas sur des catégorisations faites a priori des entités, mais en se focalisant sur les relations que celles-ci entretiennent dans plusieurs dimensions. L’objectif final est de proposer un outil d’accompagnement à la transition écologique à destination des acteurs participant à des activités induisant la consommation, voire la production de ressources. Ces travaux de recherche en informatique s’appuient sur la numérisation continue des espaces et particulièrement les espaces urbains (Smart City, Internet of Everything)
On one hand, the ecological transition and sustainable development issues are today a reality that cannot be ignored given the negative impacts of human activities on their environments. On the other side, an increasingly important digitization of these environments results in the generation of massive volumes of digital traces, which are all signs of actors’ activities. A significant challenge is to understand the ins and outs of environmental impact due activities and considering Emprise of Energy (EmE) as a key indicator and how this indicator can strongly change from an activity to another. Our approach considers the identification of Practice on the basis of these digital traces generated by human and non-human entities during specific activities. Practice (instantiation of activity) uses more or less resources (physical and virtual) during their existence. Be able to identify which one is more resources dependent would help to better understand how to promote ecological transition. Promoting or at least identifying on the basis of quantifiable indicators (i.e Energy Emprise), practices that have a low impact on the environment, could be an innovative approach. These practices, in the sense of coordination of multiple heterogeneous entities in time and space, can be formalized in the form of multidimensional structures activities - Hypergraph of Activities – using the theory of Assemblage (Agencement in french) and using a set of mathematical tool (Simplicial Complexes, Hypernetworks). This research attempts to model the phenomenon of human and not human activity based on the characterization of the context (massive contextual data). These Assemblages are calculated and represented in an research application (IMhoTEP) which aims to build these complex structures not based on a priori entities’ classification, but by focusing on the relationships that they maintain in several dimensions. The main goal is to offer a decision tool which support actors’ ecological transition by understand activities inducing consumption or production of resources. These academic research in the field of computer science is based continuous digitization of physical and virtual spaces, particularly highly connected urban areas (Smart City, Internet of Everything)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Cao, Huu Quyet. „Policy-based usage control for trustworthy data sharing in smart cities“. Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0010.

Der volle Inhalt der Quelle
Annotation:
Dans le domaine de “smart cities” ou “villes connectées”, les technologies de l’information et de la communication sont intégrées aux services traditionnels de la ville (eau, électricité, gaz, transports collectifs, équipements publics, bâtiments, etc.) pour améliorer la qualité des services urbains ou encore pour réduire les coûts. Les données dans la ville connectée sont généralement produites par une grande variété d’acteurs. Ces données devraient être partagées entre diverses applications ou services. Or, il y a un problème, comment les acteurs peuvent-ils exercer un contrôle sur la façon dont leurs données vont être utilisées? C’est important car pour encourager le partage des données, nous devons établir des relations de confiance entre acteurs. Les acteurs ont confiance s’ils ont la capacité à contrôler l’utilisation de leurs données. Nous prendrons en compte les obligations définies par les acteurs pour leurs données : (i) Abstraction de certaines informations, (ii) Granularité spatio-temporelle, (iii) Classification des acteurs et des objectifs, et (iv) Monétisation des données. Mes contributions sont: (i) Un modèle de contrôle d’utilisation des données. Ce modèle répond aux obligations définies par les acteurs pour leur données. (ii) Une plateforme en tant que service. La plateforme a rajouté des composants nécessaire pour permettre la transparence et la traçabilité d’utilisation des données basée sur le modèle. (iii) Un outil de visualisation. C’est l’implémentation d’un prototype pour que les acteurs puissent exercer un contrôle sur la façon dont leurs données vont être utilisées. (iv) Une évaluation de la performance et l’impact de notre solution. Ces solutions permettent l’établissement des relations de confiance pour le partage des données de Smart Cities basées sur le modèle de contrôle d’utilisation des données. Les résultats de ma thèse peuvent être appliqués à la plateforme IoT Datavenue d’Orange
In smart cities, Information and Communication Technologies, in particular Internet of Things (IoT) Technologies, are integrated into traditional services of our city, for example waste management, air pollution monitoring, and parking to improve quality while reducing costs of these services. IoT data in this context are generated by different actors, such as service providers, developers, and municipal authorities. These data should be shared among applications or services. However, in traditional scenario, there is no sharing of IoT data between them. Each actor consumes data from sensors deployed on behalf of that actor, and network infrastructure maybe shared. In order to encourage IoT data sharing, we need to establish the confidence between the actors. Exercising control over the usage of data by other actors is critical in building trust. Thus, the actors should have an ability to exercise control on how their data are going to be used. This major issue have not been treated in IoT namely Usage Control. In this thesis, we take into account obligations defined by the actors for their data (i) Abstraction of certain information, (ii) Spatial and temporal granularity, (iii) Classification of actors and purposes, and (iv) Monetization of data. For example, requirements of data usage in Intelligent parking applications are (i) Data owners have full access to all the details, (ii) Municipal authorities can access the average occupancy of parking place per street on an hourly basis, (iii) Commercial service providers can access only statistical data over a zone and a weekly basis, and (iv) Monetization of data can be based on subscription types or users roles. Thesis contributions include: (i) Policy-based Data Usage Control Model (DUPO) responds to the obligations defined by actors to their data. (ii) Trustworthy Data Sharing Platform as a Service allows transparency and traceability of data usage with open APIs based on the DUPO and Semantic technologies. (iii) Visualization Tool Prototype enables actors to exercise control on how their data will be used. (iv) Evaluation of the performance and the impact of our solution. The results show that the performance of the added trust is not affecting of the system. Mistrust might hamper public acceptance of IoT data sharing in smart cities. Our solution is key which will establish the trust between data owners and consumers by taking into account the obligations of the data owners. It is useful for data operators who would like to provide an open data platform with efficient enablers to partners, data-based services to clients, and ability to attract partners to share data on their platforms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Abdelouahab, Kamel. „Reconfigurable hardware acceleration of CNNs on FPGA-based smart cameras“. Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC042/document.

Der volle Inhalt der Quelle
Annotation:
Les Réseaux de Neurones Convolutifs profonds (CNNs) ont connu un large succès au cours de la dernière décennie, devenant un standard de la vision par ordinateur. Ce succès s’est fait au détriment d’un large coût de calcul, où le déploiement des CNNs reste une tâche ardue surtout sous des contraintes de temps réel.Afin de rendre ce déploiement possible, la littérature exploite le parallélisme important de ces algorithmes, ce qui nécessite l’utilisation de plate-formes matérielles dédiées. Dans les environnements soumis à des contraintes de consommations énergétiques, tels que les nœuds des caméras intelligentes, les cœurs de traitement à base de FPGAs sont reconnus comme des solutions de choix pour accélérer les applications de vision par ordinateur. Ceci est d’autant plus vrai pour les CNNs, où les traitements se font naturellement sur un flot de données, rendant les architectures matérielles à base de FPGA d’autant plus pertinentes. Dans ce contexte, cette thèse aborde les problématiques liées à l’implémentation des CNNs sur FPGAs. En particulier, ces travaux visent à améliorer l’efficacité des implantations grâce à deux principales stratégies d’optimisation; la première explore le modèle et les paramètres des CNNs, tandis que la seconde se concentre sur les architectures matérielles adaptées au FPGA
Deep Convolutional Neural Networks (CNNs) have become a de-facto standard in computer vision. This success came at the price of a high computational cost, making the implementation of CNNs, under real-time constraints, a challenging task.To address this challenge, the literature exploits the large amount of parallelism exhibited by these algorithms, motivating the use of dedicated hardware platforms. In power-constrained environments, such as smart camera nodes, FPGA-based processing cores are known to be adequate solutions in accelerating computer vision applications. This is especially true for CNN workloads, which have a streaming nature that suits well to reconfigurable hardware architectures.In this context, the following thesis addresses the problems of CNN mapping on FPGAs. In Particular, it aims at improving the efficiency of CNN implementations through two main optimization strategies; The first one focuses on the CNN model and parameters while the second one considers the hardware architecture and the fine-grain building blocks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Kurdej, Marek. „Exploitation of map data for the perception of intelligent vehicles“. Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2174/document.

Der volle Inhalt der Quelle
Annotation:
La plupart des logiciels contrôlant les véhicules intelligents traite de la compréhension de la scène. De nombreuses méthodes existent actuellement pour percevoir les obstacles de façon automatique. La majorité d’entre elles emploie ainsi les capteurs extéroceptifs comme des caméras ou des lidars. Cette thèse porte sur les domaines de la robotique et de la fusion d’information et s’intéresse aux systèmes d’information géographique. Nous étudions ainsi l’utilité d’ajouter des cartes numériques, qui cartographient le milieu urbain dans lequel évolue le véhicule, en tant que capteur virtuel améliorant les résultats de perception. Les cartes contiennent en effet une quantité phénoménale d’information sur l’environnement : sa géométrie, sa topologie ainsi que d’autres informations contextuelles. Dans nos travaux, nous avons extrait la géométrie des routes et des modèles de bâtiments afin de déduire le contexte et les caractéristiques de chaque objet détecté. Notre méthode se base sur une extension de grilles d’occupations : les grilles de perception crédibilistes. Elle permet de modéliser explicitement les incertitudes liées aux données de cartes et de capteurs. Elle présente également l’avantage de représenter de façon uniforme les données provenant de différentes sources : lidar, caméra ou cartes. Les cartes sont traitées de la même façon que les capteurs physiques. Cette démarche permet d’ajouter les informations géographiques sans pour autant leur donner trop d’importance, ce qui est essentiel en présence d’erreurs. Dans notre approche, le résultat de la fusion d’information contenu dans une grille de perception est utilisé pour prédire l’état de l’environnement à l’instant suivant. Le fait d’estimer les caractéristiques des éléments dynamiques ne satisfait donc plus l’hypothèse du monde statique. Par conséquent, il est nécessaire d’ajuster le niveau de certitude attribué à ces informations. Nous y parvenons en appliquant l’affaiblissement temporel. Étant donné que les méthodes existantes n’étaient pas adaptées à cette application, nous proposons une famille d’opérateurs d’affaiblissement prenant en compte le type d’information traitée. Les algorithmes étudiés ont été validés par des tests sur des données réelles. Nous avons donc développé des prototypes en Matlab et des logiciels en C++ basés sur la plate-forme Pacpus. Grâce à eux nous présentons les résultats des expériences effectués en conditions réelles
This thesis is situated in the domains of robotics and data fusion, and concerns geographic information systems. We study the utility of adding digital maps, which model the urban environment in which the vehicle evolves, as a virtual sensor improving the perception results. Indeed, the maps contain a phenomenal quantity of information about the environment : its geometry, topology and additional contextual information. In this work, we extract road surface geometry and building models in order to deduce the context and the characteristics of each detected object. Our method is based on an extension of occupancy grids : the evidential perception grids. It permits to model explicitly the uncertainty related to the map and sensor data. By this means, the approach presents also the advantage of representing homogeneously the data originating from various sources : lidar, camera or maps. The maps are handled on equal terms with the physical sensors. This approach allows us to add geographic information without imputing unduly importance to it, which is essential in presence of errors. In our approach, the information fusion result, stored in a perception grid, is used to predict the stateof environment on the next instant. The fact of estimating the characteristics of dynamic elements does not satisfy the hypothesis of static world. Therefore, it is necessary to adjust the level of certainty attributed to these pieces of information. We do so by applying the temporal discounting. Due to the fact that existing methods are not well suited for this application, we propose a family of discoun toperators that take into account the type of handled information. The studied algorithms have been validated through tests on real data. We have thus developed the prototypes in Matlab and the C++ software based on Pacpus framework. Thanks to them, we present the results of experiments performed in real conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Cao, Huu Quyet. „Policy-based usage control for trustworthy data sharing in smart cities“. Thesis, Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0010/document.

Der volle Inhalt der Quelle
Annotation:
Dans le domaine de “smart cities” ou “villes connectées”, les technologies de l’information et de la communication sont intégrées aux services traditionnels de la ville (eau, électricité, gaz, transports collectifs, équipements publics, bâtiments, etc.) pour améliorer la qualité des services urbains ou encore pour réduire les coûts. Les données dans la ville connectée sont généralement produites par une grande variété d’acteurs. Ces données devraient être partagées entre diverses applications ou services. Or, il y a un problème, comment les acteurs peuvent-ils exercer un contrôle sur la façon dont leurs données vont être utilisées? C’est important car pour encourager le partage des données, nous devons établir des relations de confiance entre acteurs. Les acteurs ont confiance s’ils ont la capacité à contrôler l’utilisation de leurs données. Nous prendrons en compte les obligations définies par les acteurs pour leurs données : (i) Abstraction de certaines informations, (ii) Granularité spatio-temporelle, (iii) Classification des acteurs et des objectifs, et (iv) Monétisation des données. Mes contributions sont: (i) Un modèle de contrôle d’utilisation des données. Ce modèle répond aux obligations définies par les acteurs pour leur données. (ii) Une plateforme en tant que service. La plateforme a rajouté des composants nécessaire pour permettre la transparence et la traçabilité d’utilisation des données basée sur le modèle. (iii) Un outil de visualisation. C’est l’implémentation d’un prototype pour que les acteurs puissent exercer un contrôle sur la façon dont leurs données vont être utilisées. (iv) Une évaluation de la performance et l’impact de notre solution. Ces solutions permettent l’établissement des relations de confiance pour le partage des données de Smart Cities basées sur le modèle de contrôle d’utilisation des données. Les résultats de ma thèse peuvent être appliqués à la plateforme IoT Datavenue d’Orange
In smart cities, Information and Communication Technologies, in particular Internet of Things (IoT) Technologies, are integrated into traditional services of our city, for example waste management, air pollution monitoring, and parking to improve quality while reducing costs of these services. IoT data in this context are generated by different actors, such as service providers, developers, and municipal authorities. These data should be shared among applications or services. However, in traditional scenario, there is no sharing of IoT data between them. Each actor consumes data from sensors deployed on behalf of that actor, and network infrastructure maybe shared. In order to encourage IoT data sharing, we need to establish the confidence between the actors. Exercising control over the usage of data by other actors is critical in building trust. Thus, the actors should have an ability to exercise control on how their data are going to be used. This major issue have not been treated in IoT namely Usage Control. In this thesis, we take into account obligations defined by the actors for their data (i) Abstraction of certain information, (ii) Spatial and temporal granularity, (iii) Classification of actors and purposes, and (iv) Monetization of data. For example, requirements of data usage in Intelligent parking applications are (i) Data owners have full access to all the details, (ii) Municipal authorities can access the average occupancy of parking place per street on an hourly basis, (iii) Commercial service providers can access only statistical data over a zone and a weekly basis, and (iv) Monetization of data can be based on subscription types or users roles. Thesis contributions include: (i) Policy-based Data Usage Control Model (DUPO) responds to the obligations defined by actors to their data. (ii) Trustworthy Data Sharing Platform as a Service allows transparency and traceability of data usage with open APIs based on the DUPO and Semantic technologies. (iii) Visualization Tool Prototype enables actors to exercise control on how their data will be used. (iv) Evaluation of the performance and the impact of our solution. The results show that the performance of the added trust is not affecting of the system. Mistrust might hamper public acceptance of IoT data sharing in smart cities. Our solution is key which will establish the trust between data owners and consumers by taking into account the obligations of the data owners. It is useful for data operators who would like to provide an open data platform with efficient enablers to partners, data-based services to clients, and ability to attract partners to share data on their platforms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Afaneh, Ahmad. „GIS – based urban information system for Sustainable and Smart Cities : application to "SunRise – Smart City" demonstrator“. Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10220/document.

Der volle Inhalt der Quelle
Annotation:
La thèse porte sur l'utilisation du système d'information géographique (SIG) pour la construction du système d'information urbaine pour les villes durables et intelligentes. Le travail comprend à la fois le développement d'une méthodologie pour la construction du système d'information urbain basé sur le SIG et son application sur un démonstrateur à grande échelle de la ville intelligente et durable (projet SunRise Smart City).La thèse comporte quatre parties :La première partie comporte une analyse bibliographique des travaux réalisés sur les thèmes relatifs à ce travail de thèse à savoir : l'émergence de la ville, les concepts de Ville Durable et de Ville Intelligent, le système d'information géographique (SIG) et son application sur l’environnement urbain.Le deuxième chapitre présente l'application du SIG pour la construction du système d'information urbaine du campus scientifique de l'Université de Lille, qui est utilisé comme site de démonstration pour le projet « SunRise Smart City ». Le système d'informations urbaines comprend des informations sur les bâtiments du campus, ainsi que les réseaux urbains.Le troisième chapitre présente l'utilisation du SIG pour la visualisation des données dynamiques des réseaux urbains, qui sont collectées par des capteurs intelligents. Le chapitre présente la méthodologie suivie pour la visualisation dynamique de ces données, ainsi que l'application de cette méthode sur les données de consommation d'eau.Le dernier chapitre présente l'utilisation du BIM dans le système d'information urbain SunRise. La méthodologie est d'abord présentée, puis elle est appliquée sur un bâtiment du campus
The thesis concerns the use of the Geographic information system (GIS) for the construction of urban information system for Sustainable and Smart Cities. The work includes both the development of a methodology for the construction of the GIS-based urban information system and its application on to the large-scale demonstrator of the Smart and Sustainable City (SunRise Smart City).The thesis is composed of four parts. The first part includes a state of the art on the emergence of the Smart City Concept and the achievements in this area. It also presents the Geographic Information System (GIS) and its use in both environmental and urban areas.The second chapter presents the application of the GIS for the construction of the Urban Information System of the Scientific Campus of the University of Lille, which is used as a demonstration site for the project SunRise Smart City. The urban information system includes information about the campus buildings as well as the urban networks. The third chapter presents the use of the GIS for the visualization of dynamic data concerning urban networks, which is collected by smart sensors. The chapter presents the methodology followed for the dynamic data visualization as well as the application of this methodology on the water consumption data.The last chapter presents the use of the BIM in the SunRise urban information system for the management of buildings. The methodology is first presented then it is applied to a building of the Campus
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Brulin, Damien. „Fusion de données multi-capteurs pour l'habitat intelligent“. Thesis, Orléans, 2010. http://www.theses.fr/2010ORLE2066/document.

Der volle Inhalt der Quelle
Annotation:
Le concept d’habitat intelligent s’est largement développé ces dernières années afin de proposer des solutions face à deux préoccupations majeures : la gestion optimisée de l’énergie dans le bâtiment et l’aide au maintien à domicile de personnes âgées. C’est dans ce contexte que le projet CAPTHOM, dans lequel s’inscrit cette thèse, a été développé. Pour répondre à ces problématiques, de nombreux capteurs, de natures différentes, sont utilisés pour la détection de la présence humaine, la détermination de la localisation et de la posture de la personne. En effet, aucun capteur, ne peut, seul, répondre à l’ensemble de ces informations justifiant le développement d’un dispositif multi-capteurs et d’une politique de fusion de données. Dans ce projet, les capteurs retenus sont les détecteurs infrarouges passifs, les thermopiles et la caméra. Aucun capteur n’est porté par la personne (non invasivité du dispositif). Nous proposons une architecture globale du capteur intelligent composée de quatre modules de fusion permettant respectivement de détecter la présence humaine, de localiser en 3D la personne, de déterminer la posture et d’aider à la prise de décision finale selon l’application visée. Le module de détection de présence fusionne les informations des trois capteurs : les détecteurs IRP pour la détection du mouvement, les thermopiles pour la présence en cas d’immobilité de la personne et la caméra pour identifier l’entité détectée. La localisation 3D de la personne est réalisée grâce à l’estimation de position sur horizon glissant. Cette méthode, nommée Visual Receding Horizon Estimation (VRHE), formule le problème d’estimation de position en un problème d’optimisation non linéaire sous contraintes dans le plan image. Le module de fusion pour la détermination de posture s’appuie sur la théorie des ensembles flous. Il assure la détermination de la posture indépendamment de la personne et de sa distance vis à vis de la caméra. Enfin, un module d’aide à la décision fusionne les sorties des différents modules et permet de déclencher des alarmes dans le cas de la surveillance de personnes âgées ou de déclencher des applications domotiques (chauffage, éclairage) pour la gestion énergétique de bâtiments
The smart home concept has been widely developed in the last years in order to propose solutions for twomain concerns : optimized energy management in building and help for in-home support for elderly people.In this context, the CAPTHOM project, in which this thesis is in line with, has been developed. To respondto these problems, many sensors, of different natures, are used to detect the human presence, to determinethe position and the posture of the person. In fact, no sensor can , alone, answers to all information justifyingthe development of a multi-sensor system and a data fusion method. In this project, the selected sensorsare passive infrared sensors (PIR), thermopiles and a video camera. No sensor is carried by the person(non invasive system). We propose a global architecture of intelligent sensor made of four fusion modulesallowing respectively to detect the human presence, to locate in 3D the person, to determine the posture andto help to make a decision according to the application. The human presence module fuses information ofthe three sensors : PIR sensors for the movement, thermopiles for the presence in case of immobility and thecamera to identify the detected entity. The 3D localisation of the person is realized thanks to position recedinghorizon estimation. This method, called Visual Receding Horizon Estimation (VRHE), formulates the positionestimation problem into an nonlinear optimisation problem under constraints in the image plane. The fusionmodule for the posture determination is based on fuzzy logic. It insures the posture determination regardlessof the person and the distance from the camera. Finally, the module to make a decision fuses the outputs of the preceding modules and gives the opportunity to launch alarms (elderly people monitoring) or to commandhome automation devices (lightning, heating) for the energy management of buildings
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Welte, Anthony. „Spatio-temporal data fusion for intelligent vehicle localization“. Thesis, Compiègne, 2020. http://bibliotheque.utc.fr/EXPLOITATION/doc/IFD/2020COMP2572.

Der volle Inhalt der Quelle
Annotation:
La localisation précise constitue une brique essentielle permettant aux véhicules de naviguer de manière autonome sur la route. Cela peut être atteint à travers les capteurs déjà existants, de nouvelles technologies (Iidars, caméras intelligentes) et des cartes haute définition. Dans ce travail, l'intérêt d'enregistrer et réutiliser des informations sauvegardées en mémoire est exploré. Les systèmes de localisation doivent permettre une estimation à haute fréquence, des associations de données, de la calibration et de la détection d'erreurs. Une architecture composée de plusieurs couches de traitement est proposée et étudiée. Une couche principale de filtrage estime la pose tandis que les autres couches abordent les problèmes plus complexes. L'estimation d'état haute fréquence repose sur des mesures proprioceptives. La calibration du système est essentielle afin d'obtenir une pose précise. En gardant les états estimés et les observations en mémoire, les modèles d'observation des capteurs peuvent être calibrés à partir des estimations lissées. Les Iidars et les caméras intelligentes fournissent des mesures qui peuvent être utilisées pour la localisation mais soulèvent des problèmes d'association de données. Dans cette thèse, le problème est abordé à travers une fenêtre spatio-temporelle, amenant une image plus détaillée de l'environnement. Le buffer d'états est ajusté avec les observations et toutes les associations possibles. Bien que l'utilisation d'amers cartographiés permette d'améliorer la localisation, cela n'est possible que si la carte est fiable. Une approche utilisant les résidus lissés a posteriori a été développée pour détecter ces changements de carte
Localization is an essential basic capability for vehicles to be able to navigate autonomously on the road. This can be achieved through already available sensors and new technologies (Iidars, smart cameras). These sensors combined with highly accurate maps result in greater accuracy. In this work, the benefits of storing and reusing information in memory (in data buffers) are explored. Localization systems need to perform a high-frequency estimation, map matching, calibration and error detection. A framework composed of several processing layers is proposed and studied. A main filtering layer estimates the vehicle pose while other layers address the more complex problems. High-frequency state estimation relies on proprioceptive measurements combined with GNSS observations. Calibration is essential to obtain an accurate pose. By keeping state estimates and observations in a buffer, the observation models of these sensors can be calibrated. This is achieved using smoothed estimates in place of a ground truth. Lidars and smart cameras provide measurements that can be used for localization but raise matching issues with map features. In this work, the matching problem is addressed on a spatio-temporal window, resulting in a more detailed pictur of the environment. The state buffer is adjusted using the observations and all possible matches. Although using mapped features for localization enables to reach greater accuracy, this is only true if the map can be trusted. An approach using the post smoothing residuals has been developed to detect changes and either mitigate or reject the affected features
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Valade, Aurelien. „Capteurs intelligents : quelles méthodologies pour la fusion de données embarquées ?“ Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0007/document.

Der volle Inhalt der Quelle
Annotation:
Fruit d’un travail collaboratif entre le LAAS-CNRS de Toulouse et l’entreprise MEAS-France / TE Connectivity, ces travaux ont consisté en la mise en place d’une méthodologie permettant la réalisation de capteurs embarqués intelligents utilisant la fusion de données multi-physique pour estimer un paramètre en amoindrissant l’impact des variations environnementales.Nous explorons ici les méthodes liées à la modélisation et l’estimation de paramètres au travers des filtres de Kalman, pour les systèmes linéaires, et des filtres de Kalman étendus (EKF) et Unscented Kalman Filter pour les systèmes non-linéaires. Nous proposons ensuite des méthodes hybrides permettant d’obtenir le meilleur rapport charge de calculs/précision pour les systèmes présentant une évolution linéaire et une mesure non-linéaire.Après une étude de la complexité algorithmique des différentes solutions, nous proposons des méthodes permettant de diminuer la charge de calculs afin de satisfaire les contraintes temps-réel avec une faible puissance de calculs, telles que trouvées couramment dans les applications embarquées. La méthode développée est finalement appliquée sur deux cas applicatifs concrets : le capteur de qualité d’urée de la société MEAS-France/TE Connectivity et le capteur d’analyse du mouvement AREM développés au cours de la thèse au sein du LAAS-CNRS
The work detailed in this document is the result of a collaborative effort of the LAAS-CNRS in Toulouse and MEAS-France / TE Connectivity during a period of three years.The goal here is to develop a methodology to design smart embedded sensors with the ability to estimate physical parameters based on multi-physical data fusion. This strategy tends to integrate sensors technologies, currently dedicated to lab measurements, in low powered embedded systems working in imperfects environments. After exploring model oriented methods, parameters estimations and Kalman filters, we detail various existing solutions upon which we can build a valid response to multi-physical data fusion problematics, for linear systems with the Kalman Filter, and for non-linear systems with the Extended Kalman Filter and the Unscented Kalman Filter.Then, we will synthesize a filter for hybrid systems, having a linear evolution model and a non-linear measurement model. For example, using the best of the two worlds in order to obtain the best complexity/precision ratio. Once we selected the estimation method, we detail computing power and algorithm complexity problematics in order to find available optimizations we can use to assess the usability of our system in a low power environment. Then we present the developed methodology application to the UQS sensor, sold by TE Connectivity, study case. This sensor uses near infra-red spectroscopy to determine the urea concentration in a urea/water solution, in order to control the nitrogen-oxyde depolluting process in gasoline engines. After a design principles presentation, we detail the model we created in order to represent the system, to simulate its behavior and to combine the measurement data to extract the desired concentration. During this step, we focus on the obstacles of our model calibration and the deviation compensation, due toworking conditions or to components aging process. Based on this development, we finally designed the hybrid models addressing the nominal working cases and the model re-calibration during the working duration of the product. After this, we presented obtained results, on simulated data, and on real-world measured data. Finally, we enhanced the methodology based on tabulated “black box” models which are easier to calibrate and cheaper to process. In conclusion, we reapplied our methodology to a different motion capture sensor, to compile all possible solutions and limits
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Matta, Natalie. „Vers une gestion décentralisée des données des réseaux de capteurs dans le contexte des smart grids“. Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0010/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse à la gestion décentralisée des données récoltées par les réseaux de capteurs dans le contexte des réseaux électriques intelligents (smart grids). Nous proposons une architecture décentralisée basée sur les systèmes multi-agents pour la gestion des données et de l’énergie dans un smart grid. En particulier, nos travaux traitent de la gestion des données des réseaux de capteurs dans le réseau de distribution d’un smart grid et ont pour objectif de lever deux verrous essentiels : (1) l'identification et la détection de défaillances et de changements nécessitant une prise de décision et la mise en œuvre des actions correspondantes ; (2) la gestion des grandes quantités de données qui seront récoltées suite à la prolifération des capteurs et des compteurs communicants. La gestion de ces informations peut faire appel à plusieurs méthodes, dont l'agrégation des paquets de données sur laquelle nous nous focalisons dans cette thèse. Nous proposons d’agréger (PriBaCC) et/ou de corréler (CoDA) le contenu de ces paquets de données de manière décentralisée. Ainsi, le traitement de ces données s'effectuera plus rapidement, ce qui aboutira à une prise de décision rapide et efficace concernant la gestion de l'énergie. La validation par simulation de nos contributions a montré que celles-ci répondent aux enjeux identifiés, notamment en réduisant le volume des données à gérer et le délai de communication des données prioritaires
This thesis focuses on the decentralized management of data collected by wireless sensor networks which are deployed in a smart grid, i.e. the evolved new generation electricity network. It proposes a decentralized architecture based on multi-agent systems for both data and energy management in the smart grid. In particular, our works deal with data management of sensor networks which are deployed in the distribution electric subsystem of a smart grid. They aim at answering two key challenges: (1) detection and identification of failure and disturbances requiring swift reporting and appropriate reactions; (2) efficient management of the growing volume of data caused by the proliferation of sensors and other sensing entities such as smart meters. The management of this data can call upon several methods, including the aggregation of data packets on which we focus in this thesis. To this end, we propose to aggregate (PriBaCC) and/or to correlate (CoDA) the contents of these data packets in a decentralized manner. Data processing will thus be done faster, consequently leading to rapid and efficient decision-making concerning energy management. The validation of our contributions by means of simulation has shown that they meet the identified challenges. It has also put forward their enhancements with respect to other existing approaches, particularly in terms of reducing data volume as well as transmission delay of high priority data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Lutfi, Rania. „Indexation intelligente et recherche par le contenu de l'audio“. Nantes, 2003. http://www.theses.fr/2003NANT2028.

Der volle Inhalt der Quelle
Annotation:
La numérisation croissante des contenus audiovisuels s'accompagne de la production d'outils généraux pour rechercher de l'information. Ce sera le rôle majeur d'un SGBD audio. Toutefois, les SGBDs actuels, les moteurs de recherche basés sur le contenu et plus particulièrement, les travaux dans le cadre des archives radiophoniques demeurent limités. Il devient donc crucial de pouvoir définir des techniques automatiques (ou au moins semi-automatiques) d'indexation/de recherche par le contenu audiovisuel. Cette thèse s'intéresse exclusivement aux documents audio. L'objectif est de concevoir, mettre en oeuvre et expérimenter, un système d'indexation et de recherche par le conrenu de l'audio. . .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Wacta, Christine. „Vers la "ville neuro-prothétique" du futur : une maquette numérique de ville renseignée comme plateforme d’échange et de croisement d’applications intégrant des données en temps réel et sur un support topographique de référence permettant une approche urbaine holistique qui intègre pleinement les questions socio- culturelles, économiques, politiques et environnementales nécessaires dans une conception urbaine de ville intelligente : l’approche Géo Spatiale appliquée à l’urbain“. Thesis, Université de Paris (2019-....), 2019. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=3960&f=25139.

Der volle Inhalt der Quelle
Annotation:
La question de la conception urbaine du futur est à la une des questions importantes et critiques de notre société. On peut citer comme exemples : le réchauffement de la planète, la biodiversité en péril, les transitions économiques/sociales/culturelles, les prévisions d’une augmentation considérable de la population citadine, les mutations des transports et le changement des formes urbaines, pour ne citer que ceux-là. Toutes ces questions sont au cœur des problématiques actuelles et font partie des contraintes auxquelles nous devons faire face dans la conception urbaine de demain...Ce travail entend reconsidérer l’approche classique de conception et aménagement urbain et développer une approche globale assistée par ce que l’on nommera ici une maquette numérique procédurale. Car la ville en tant que système complexe est constituée de sous-systèmes très variés ; physique et perceptible ; exemple : [bâti, réseaux routiers, infrastructure, verdure] et non-physique ; sans forme visible, exemple : [mobilité des citadins, activités interactives liées à la temporalité…]. Un respect des liens de ses sous-systèmes : sociaux, techniques est nécessaire dans ce travail. Des recherches dans le domaine urbain dévoilent l’importance du besoin d’études globales approfondies dans l’aspect comportemental et social du citadin ainsi que son interaction spatio-temporelle dans la ville, un aspect très important, mais souvent pris à la légère dans la conception urbaine. Pourtant, les activités répétitives quotidiennes du citadin représentent un aspect essentiel devant alimenter toute intervention urbaine. Cette orchestration de milliers de citadins comporte une dimension socio-temporel-interactive, décisive et vitale permettant de mesurer le « succès » ou non d’une ville. Cet aspect invisible de vie urbaine constitue un phénomène essentiel de réussite urbaine que Jan Gehl qualifie d’« inter-Play (l’entrejeu) entre l’utilisat-eur(rice) [agent dynamique vivant] et l’objet [physique statique]. D’après Jan Gehl , le succès d’une ville se mesure par sa capacité à attirer l’utilisateur(rice) à passer plus de temps dans ses places et ses rues. Sans ce jeu dynamique vivant entre l’utilisateur(rice) et l’objet, la ville est sans âme. Ce travail essaye en même temps de célébrer la puissance technologique en soulignant la nécessité et supériorité du pouvoir de décision humaine sur celui de la machine. De manière à montrer que l’intelligence humaine reste indispensable à la pensée, l’observation, la synthèse et le pilotage du projet. Ceci redonne à l’homme sa place de leader et dirigeant pour atteindre des résultats plus flexibles et adaptables à des schémas généraux à grande échelle ou refocalisés sur l’expérience singulière individuelle à l’échelle de l’utilisat-eur(rice). Cette capacité et flexibilité permet d’intégrer des nouveaux éléments ou de nouvelles performances qui surgissent avec le développement soit des applications utilisées soit de nouvelles découvertes sur le terrain
The question of urban design of the future is one of the important and critical issues of our society. The global warming, the biodiversity at risk, the economic/social/cultural transitions, the predictions of a significant increase in the urban population, the changes in transportation patterns, and changes in urban forms, to quote only a few... All these questions are at the heart of current issues and are part of the constraints we must face in the urban design of tomorrow. Faced with such a situation, it seems risky today to continue to think of the city with approaches or design processes that are based on yesterday’s realities. As Albert Einstein puts it, "we cannot solve our problems using the same way of thinking that we had when we created them". The environmental issues (global warming, biodiversity, etc ...) are factors of vulnerability in the current city in such a way that it is generally accepted (ScienceNet) that built environments must now , more than in the past, be designed in a way that is "respectful of the environment ". We are encouraged to develop a socially responsible and "environmentally friendly" mentality, an approach that looks beyond the immediate and individual interest to achieving stable, long-term common goals. This is only possible if we use and intelligently and fairly all the resources at our disposal, in this case our knowledge, the natural resources, the socio-economic, the geographical as well as the technological advancements. Because, if technology and digital have become of common daily used by the citizens, urban design and architectural disciplines seems however to have a hard time integrating it completely in an intelligent and systemic way as do today other disciplines such as medicine and aeronautics...This work tries to develop a methodology of urban design based on a combination of digital applications, the effort of a collective intelligence as well as ideas, concepts and techniques proposed by a handful of philosophers, historians, psychologists, architects, town planners above mentioned who marked the history of cities. It is therefore from this heterogeneous marriage of techniques and thoughts augmented by recent geospatial technologies that this research intends to base its point of view on the study of urban complexity in order to try to cope with urban problems in constant form. evolution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Turmeaux, Teddy. „Contraintes et fouille de données“. Orléans, 2004. http://www.theses.fr/2004ORLE2048.

Der volle Inhalt der Quelle
Annotation:
La fouille de données est un domaine de recherche actif, visant à découvrir des connaissances implicites dans des bases de données. Nous étudions ici l'intérêt de formalismes issus de la logique du premier ordre pour la fouille de données. En particulier, nous examinons l'intérêt des contraintes, vues comme des formules du premier ordre et interprétées sur un domaine particulier. Un point important de tout formalisme utilisé en ECD est la définition d'une relation de généralité qui permet de structurer l'espace des motifs, et de faciliter ainsi la recherche de motifs intéressants. Nous nous intéressons tout d'abord aux bases de données contraintes qui étendent à la fois les bases de données relationnelles, déductives et spatiales, et qui permettent la définition d'ensembles infinis grâce à la notion de tuples généralisés. Nous étudions ensuite le formalisme des clauses contraintes utilisées en Programmation Logique avec Contraintes. Nous reprenons la définition classique de généralité entre clauses contraintes et nous déterminons dans ce cadre le moindre généralisé, le moindre spécialisé et des opérateurs de raffinement. Nous montrons comment les calculer en pratique sur plusieurs domaines de contraintes spécifiques. Enfin nous introduisons un nouveau motif: les règles caractéristiques. Ces règles sont la combinaison d'un chemin quantifié et d'une contrainte et permettent de capturer la notion de lien entre entités et de contraintes sur ces entités. Nous montrons l'intérêt de telles règles dans le cadre de bases de données géographiques, notamment sur des données géologiques fournies par le Bureau de Recherche Géologique et Minières.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Mondo, Mélanie. „Traces numériques et dimensions spatiales des pratiques de la ville touristique“. Thesis, La Rochelle, 2022. http://www.theses.fr/2022LAROS019.

Der volle Inhalt der Quelle
Annotation:
Cette thèse interroge l’apport des traces numériques dans la compréhension des dimensions spatiales des pratiques de la ville touristique. Les traces numériques sont un champ d’investigation émergent et promettant de répondre aux attentes de nombreux acteurs (professionnels, institutionnels, scientifiques). De la carte de chaleur au tableau de bord, elles sont collectées, traitées, agrégées, lissées et leur visualisation pourrait dévoiler un espace-temps touristique inédit. Nous proposons une approche critique de l’utilisation de ces traces s’intégrant dans les cadres de la géographie du tourisme et des critical data studies.Un état de l’art des promesses associées aux traces numériques confirme leur utilisation croissante, identifie les enjeux concernant l’observation de la ville touristique que leurs usages sont susceptibles d’éclairer et relève certaines limites. Deux approches complémentaires sont ensuite proposées pour mesurer l’apport effectif de ces données dans l’analyse de l’espace-temps des pratiques touristiques en ville. À Biarritz, une extraction de données issues de réseaux sociaux souligne la nécessité d’une analyse contextualisée de ces traces. À La Rochelle, un couplage de traces GPS et d’entretiens révèle le potentiel des méthodes d’élicitation pour donner du sens aux traces numériques et mettre en récit la pratique de la ville touristique. In fine, ces deux approches confirment l’hypothèse que les traces numériques enrichissent, sous certaines conditions, la compréhension des pratiques touristiques. Les résultats obtenus permettent alors de plaider pour une recherche contextualisée et qualitative sur les traces numériques en géographie
This thesis explores the inputs and the impact of digital footprints on the understanding of the spatial dimensions of urban tourist practices. Digital footprints are an emerging field of investigation that promises a better understanding of service stakeholders’ expectations (businesses, institutions, academic). From heat maps to dashboards, data is collected, processed, aggregated, smoothed, and synthetized into visualizations that could reveal a new tourist space-time. Applying frameworks from tourism geography and critical data studies, we suggest a critical approach to analyze the way these data are used. A review of the existing literature confirms an uptrend in digital footprints usage / monitoring, identifies what is at stake regarding the observation of tourist cities and points out critical limits. Two complementary approaches are then presented to measure the concrete value of this data regarding the space-time of urban tourist practices. In Biarritz (France), the analysis of a given social media dataset highlights the need for a contextualized analysis of footprints. In La Rochelle (France), a GPS dataset complemented with a series of interviews reveal the potential of elicitation methods to better understand digital footprints and narrate the practice of the tourist city. Eventually, these two approaches confirm our initial hypothesis i.e. digital footprints tend to enrich, under specific conditions, the understanding of tourism practices. The outcomes obtained allow us to advocate the relevance of contextualized and qualitative research on digital footprints in geography
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Collard, Martine. „Fouille de données, Contributions Méthodologiques et Applicatives“. Habilitation à diriger des recherches, Université Nice Sophia Antipolis, 2003. http://tel.archives-ouvertes.fr/tel-01059407.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire, ont été développés sur le thème de la découverte de motifs intéressants à travers la fouille de données et mis en oeuvre dans le cadre de la conception de systèmes d'information. Ils sont essentiellement consacrés aux problèmes soulevés par l'étape de fouille pour la découverte de modèles et de motifs fréquents. Ils sont à la fois d'ordre méthodologique et applicatif.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Ugon, Adrien. „Fusion symbolique et données polysomnographiques“. Paris 6, 2013. http://www.theses.fr/2013PA066187.

Der volle Inhalt der Quelle
Annotation:
Au cours des dernières décennies, la médecine a nécessité des examens de plus enplus complexes pour effectuer un diagnostic et orienter vers un traitement. Il est mêmecourant de pratiquer plusieurs examens dans des spécialités médicales différentes afind’étudier une pathologie par des approches multiples et ainsi mieux la connaître. Cela pose des difficultés d’inteprétation car les données sont parfois hétérogènes maissurtout souvent très pointues et leur traitement requiert une expertise du domaine. Dans ce contexte, la fusion symbolique constitue une solution possible. En effet, ellea prouvé son efficacité à traiter des problèmes sur des niveaux d’abstraction aussi bienfaibles qu’élevés et à élaborer une connaissance de haut niveau. Cette thèse démontre l’efficacité de la fusion symbolique appliquée au traitement desdonnées polysomnographiques pour l’élaboration d’un outil de support au diagnostic duSyndrome d’Apnées du Sommeil. Pour être diagnostiqué, ce trouble du sommeil nécessiteune polysomnographie. Cet examen médical consiste en l’enregistrement simultané dedivers paramètres physiologiques durant toute une nuit. Son interprétation nécessitel’annotation des courbes enregistrées par une analyse visuelle effectuée par un médecinspécialiste du sommeil, ce qui est une tâche chronophage et fastidieuse dont les résultatspeuvent présenter quelques divergences d’un expert à l’autre. Le recours à un outil desupport au diagnostic fiable permet d’augmenter le consensus. Cette thèse développe lesétapes d’élaboration d’un tel outil
In recent decades, medical examinations required to diagnose and guide to treatmentbecame more and more complex. It is even a current practice to use several examinationsin different medical specialties to study a disease through multiple approaches so as todescribe it more deeply. The interpretation is difficult because the data is both heterogeneous and also veryspecific, with skilled domain of knowledge required to analyse it. In this context, symbolic fusion appears to be a possible solution. Indeed, it wasproved to be very effective in treating problems with low or high levels of abstraction ofinformation to develop a high level knowledge. This thesis demonstrates the effectiveness of symbolic fusion applied to the treatmentof polysomnographic data for the development of an assisted diagnosis tool of Sleep ApneaSyndrome. Proper diagnosis of this sleep disorder requires a polysomnography. This medicalexamination consists of simultaneously recording of various physiological parametersduring a night. Visual interpretation is tedious and time consuming and there commonlyis some disagreement between scorers. The use of a reliable support-to-diagnosis toolincreases the consensus. This thesis develops stages of the development of such a tool
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Gross-Amblard, David. „Approximation dans les bases de données contraintes“. Paris 11, 2000. http://www.theses.fr/2000PA112304.

Der volle Inhalt der Quelle
Annotation:
Le modèle des bases de données contraintes, introduit par Kanellakis, Kuper et Revesz [KKR95] permet la prise en compte d'informations géométriques, comme les données cartographiques. Les objets géométriques sont représentés comme la solution d'un système d'équations ou d'inéquations, sans limitation sur leur dimension. La compléxité en temps de l'évaluation des requêtes du premier ordre ou du volume est raisonnable lorsque la dimension des objets est fixe. Lorsque la dimension des objets est une variable du problème, cette complexité est prohibitive (globalement exponentielle dans la dimension). Dans cette thèse, nous nous intéressons à l'obtention d'algorithmes d'évaluation en temps polynomial dans la dimension, par des techniques d'approximation probabiliste. En étendant les travaux de Dyer, Frieze et Kannan [DFK91], nous obtenons : - un algorithme d'échantillonnage de points avec distribution presque uniforme dans l'ensemble défini par une requête du premier ordre ; - un algorithme estimant le volume et la forme de cet ensemble [GdR00]. Sous certaines conditions, le volume peut être estimé sans évaluation préalable de la requête. Nous considérons ensuite la robustesse des relations topologiques entre objets après utilisation d'algorithmes d'approximation. Enfin, nous présentons un prototype de base de données spatiales mettant en oeuvre certains de ces algorithmes probabilistes sur des données réelles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Dupont, Xavier. „Programmation par contraintes sur les flux de données“. Caen, 2014. http://www.theses.fr/2014CAEN2016.

Der volle Inhalt der Quelle
Annotation:
Dans ce manuscrit, nous étudions la généralisation de la programmation par contraintes sur les variables à domaines finies aux variables flux. D'une part, les concepts de flux, de séquences infinies et de mots infinies ont fait l'objet de nombreux travaux, et un objectif consiste à réaliser un état de l'art qui couvre la théorie des langages, les logiques classiques et temporelles, ainsi que les nombreux formalismes qui sont fortement apparentés à ceux-ci. Le rapprochement effectué avec les logique temporelles est un premier pas vers l'unification des formalismes sur les flux, et les logiques temporelles étant elles-même nombreuses, nous établissons une classification de celles-ci qui permettra l'extrapolation des contributions à d'autres contextes. Le second objectif consiste à identifier les éléments de ces formalismes qui permettent le traitement des problèmes de satisfactions avec les techniques de la programmation par contraintes sur les variables à domaines finis. Comparée à l'expressivité des logiques temporelles, celle de notre formalisme est plus limitée. Ceci est dû au fait que la programmation par contraintes ne permet que la conjonction de contraintes, et impose d'intégrer la disjonction dans la notion de propagateur de contraintes. Notre formalisme permet un gain en concision et la réutilisation de la notion de propagateur. La question de la généralisation à des logiques plus expressives est laissée ouverte
In this thesis, we investigate the generalisation of constraint programming on finite variables to stream variables. First, the concepts of streams, infinite sequences and infinite words have been extensively studied in the litterature, and we propose a state of the art that covers language theory, classical and temporal logics, as well as the numerous formalisms that are strongly related to those. The comparison with temporal logics is a first step towards the unification of formalisms over streams, and because the temporal logics are themselves numerous, the classification of these allows the extrapolation of our contributions to other contexts. The second goal involves identifying the features of the existing formalisms that lend themselve to the techniques of constraint programming over finite variables. Compared to the expressivity of temporal logics, that of our formalism is more limited. This stems from the fact that constraint programming allows only the conjunction of constraints, and requires encapsulating disjunction into constraint propagators. Nevertheless, our formalism allows a gain in concision and the reuse of the concept of propagator in a temporal setting. The question of the generalisation of these results to more expressive logics is left open
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Dematraz, Jessica. „Méthodologies d'extraction des connaissances issues de données hétérogènes pour l'innovation“. Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0716.

Der volle Inhalt der Quelle
Annotation:
A l’heure du Big Data où les technologies de l’information et de la communication battent leur plein, l’accès aux informations n’a jamais été aussi facile et rapide. Paradoxalement, l’information stratégique, soit l’information “utile”, celle qui permet de faciliter la prise de décision, n’a jamais été aussi rare et difficile à trouver. D’où l’importance de mettre en place un processus d’intelligence économique et plus précisément de veille, afin d’exploiter de manière efficace l’environnement informationnel d’un organisme, d’un secteur voire d’un pays entier. Aujourd’hui, la place prépondérente de l’information dans un contexte professionnel n’est plus à prouver. Les problématiques de veille telles qu’elles soient (stratégique, concurrentielle, technologique, réglementaire …) concernent les entités de tout secteur (public ou privé) et de toute taille (TPME/PME, ETI, grands groupes) et ce dans tous les domaines d’activités. Sauf qu’il n’existe pas une méthode unique applicable à tout et pour tous, mais une pluralité de méthodes qui doivent coexister pour arriver à faire jaillir la connaissance
In the age of Big Data, where information and communication technologies are in full swing, access to information has never been so easy and fast. Paradoxically, strategic information, that is, "useful" information, the information that facilitates decision-making, has never been so rare and difficult to find. Hence the importance of setting up a process of competitive intelligence and more precisely of information monitoring, in order to effectively exploit the information environment of an organization, a sector or even an entire country. Today, the predominance of information in a professional context is no longer to be proven. The monitoring issues as they are (strategic, competitive, technological, regulatory, etc.) concern entities of all sectors (public or private) and sizes (SMEs, ETIs, large groups) in all fields of activity. Except that there is no single method applicable to everything and for everyone, but a plurality of methods that must coexist to achieve the emergence of knowledge
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Leblanc, Brice. „Analyse non supervisée de données issues de Systèmes de Transport Intelligent-Coopératif“. Thesis, Reims, 2020. http://www.theses.fr/2020REIMS014.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se situe dans le contexte des réseaux véhiculaires (VANET), et plus particulièrement dans le contexte des Systèmes de Transport Intelligent-Coopératif (STI-C). Ces systèmes échangent des informations pour améliorer la sécurité routière.Le but de cette thèse est d'introduire des outils d'analyse de données qui peuvent fournir aux opérateurs routiers des informations sur l'utilisation et état de leurs infrastructures. Par conséquent, ces informations peuvent contribuer à améliorer la sécurité routière. Nous identifions deux cas que nous voulons traiter : l'identification des profils de conduite et la détection des obstacles routiers.Pour traiter ces questions, nous proposons d'utiliser des approches d'apprentissage non supervisées : des méthodes de regroupement pour l'identification des profils de conduite, et la détection de changement de concept pour la détection des obstacles. Cette thèse présente trois contributions principales : une méthodologie nous permettant de transformer les données brutes des STI-C en un ensemble de trajectoires puis de données d'apprentissage ; l'utilisation de méthodes classiques de regroupement et des points d'intérêt pour les profils de conduite avec des expériences sur les données issues des appareils mobiles et des journaux du réseau ; et la prise en compte d'une foule de véhicules fournissant des journaux du réseau considérés comme flux de données en entrée d'algorithmes de détection de changement de concept pour reconnaître les obstacles routiers
This thesis takes place in the context of Vehicular Ad-hoc Networks (VANET), and more specifically the context of Cooperative-Intelligent Transport System (C-ITS). These systems are exchanging information to enhance road safety.The purpose of this thesis is to introduce data analysis tools that may provide road operators information on the usage/state of their infrastructures. Therefore, this information may help to improve road safety. We identify two cases we want to deal with: driving profile identification and road obstacle detection.For dealing with those issues, we propose to use unsupervised learning approaches: clustering methods for driving profile identification, and concept drift detection for obstacle detection. This thesis introduces three main contributions: a methodology allowing us to transform raw C-ITS data in, first, trajectory, and then, learning data-set; the use of classical clustering methods and Points Of Interests for driving profiles with experiments on mobile device data and network logs data; and the consideration of a crowd of vehicles providing network log data as data streams and considered as input of concept drift detection algorithms to recognize road obstacles
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Baez, miranda Belen. „Génération de récits à partir de données ambiantes“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM049/document.

Der volle Inhalt der Quelle
Annotation:
Le récit est un outil de communication qui permet aux individus de donner un sens au monde qui les entoure. Il représente une plate-forme pour comprendre et partager leur culture, connaissances et identité. Le récit porte une série d'événements réels ou imaginaires, en provoquant un ressenti, une réaction ou même, déclenche une action. Pour cette raison, il est devenu un sujet d'intérêt pour différents domaines au-delà de la Littérature (Éducation, Marketing, Psychologie, etc.) qui cherchent d'atteindre un but particulier au travers de lui (Persuader, Réfléchir, Apprendre, etc.).Cependant, le récit reste encore sous-développé dans le contexte informatique. Il existent des travaux qui visent son analyse et production automatique. Les algorithmes et implémentations, par contre, restent contraintes à imiter le processus créatif derrière des textes littéraires provenant de sources textuelles. Ainsi, il n'existent pas des approches qui produisent automatiquement des récits dont 1) la source est constitué de matériel non formatées et passé dans la réalité et 2) et le contenu projette une perspective qui cherche à transmettre un message en particulier. Travailler avec des données brutes devient relevante vu qu'elles augmentent exponentiellement chaque jour grâce à l'utilisation d'appareils connectés.Ainsi, vu le contexte du Big Data, nous présentons une approche de génération automatique de récits à partir de données ambiantes. L'objectif est de faire émerger l'expérience vécue d'une personne à partir des données produites pendant une activité humaine. Tous les domaines qui travaillent avec des données brutes pourraient bénéficier de ce travail, tels que l'Éducation ou la Santé. Il s'agit d'un effort interdisciplinaire qui inclut le Traitement Automatique de Langues, la Narratologie, les Sciences Cognitives et l'Interaction Homme-Machine.Cette approche est basée sur des corpus et modèles et comprend la formalisation de ce que nous appelons le récit d'activité ainsi qu'une démarche de génération adaptée. Elle a est composé de 4 étapes : la formalisation des récits d'activité, la constitution de corpus, la construction de modèles d'activité et du récit, et la génération de texte. Chacune a été conçue pour surmonter des contraintes liées aux questions scientifiques posées vue la nature de l'objectif : la manipulation de données incertaines et incomplètes, l'abstraction valide d'après l'activité, la construction de modèles avec lesquels il soit possible la transposition de la réalité gardée dans les données vers une perspective subjective et la rendue en langage naturel. Nous avons utilisé comme cas d'usage le récit d'activité, vu que les pratiquant se servent des appareils connectés, ainsi qu'ils ont besoin de partager son expérience. Les résultats obtenus sont encourageants et donnent des pistes qui ouvrent beaucoup de perspectives de recherche
Stories are a communication tool that allow people to make sense of the world around them. It represents a platform to understand and share their culture, knowledge and identity. Stories carry a series of real or imaginary events, causing a feeling, a reaction or even trigger an action. For this reason, it has become a subject of interest for different fields beyond Literature (Education, Marketing, Psychology, etc.) that seek to achieve a particular goal through it (Persuade, Reflect, Learn, etc.).However, stories remain underdeveloped in Computer Science. There are works that focus on its analysis and automatic production. However, those algorithms and implementations remain constrained to imitate the creative process behind literary texts from textual sources. Thus, there are no approaches that produce automatically stories whose 1) the source consists of raw material that passed in real life and 2) and the content projects a perspective that seeks to convey a particular message. Working with raw data becomes relevant today as it increase exponentially each day through the use of connected devices.Given the context of Big Data, we present an approach to automatically generate stories from ambient data. The objective of this work is to bring out the lived experience of a person from the data produced during a human activity. Any areas that use such raw data could benefit from this work, for example, Education or Health. It is an interdisciplinary effort that includes Automatic Language Processing, Narratology, Cognitive Science and Human-Computer Interaction.This approach is based on corpora and models and includes the formalization of what we call the activity récit as well as an adapted generation approach. It consists of 4 stages: the formalization of the activity récit, corpus constitution, construction of models of activity and the récit, and the generation of text. Each one has been designed to overcome constraints related to the scientific questions asked in view of the nature of the objective: manipulation of uncertain and incomplete data, valid abstraction according to the activity, construction of models from which it is possible the Transposition of the reality collected though the data to a subjective perspective and rendered in natural language. We used the activity narrative as a case study, as practitioners use connected devices, so they need to share their experience. The results obtained are encouraging and give leads that open up many prospects for research
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Poussevin, Mickael. „Apprentissage de représentation pour des données générées par des utilisateurs“. Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066040/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Salehi, Mehrdad. „Developing a Model and a Language to Identify and Specify the Integrity Constraints in Spatial Datacubes“. Doctoral thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26325/26325.pdf.

Der volle Inhalt der Quelle
Annotation:
Thèse (Ph. D.)--Université Laval, 2009.
Texte en anglais avec résumés en anglais et en français. Bibliogr.: f. 185-197. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Azlal, Ayoub. „Déploiement d‟une stratégie Smart City à l‟échelle de la ville : application à la ville de Saint-Quentin“. Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I056.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse porte sur le déploiement du concept Smart City à l’échelle de la ville, avec une application à la ville de Saint-Quentin. Les travaux présentés dans ce manuscrit contribuent à enrichir la recherche dans le domaine de la Smart City avec pour objectif de combler l’écart de connaissance entre la théorie et la pratique.L’objectif principal est de développer une méthodologie pour l’élaboration d’une feuille de route "Smart City" comme première phase de l'implémentation d'une démarche Smart City.Le travail comporte 5 parties.La première partie présente une synthèse l’état de l’art des recherches et des pratiques sur la Smart City dans le monde.La deuxième partie présente la méthodologie développée pour conduire une démarche Smart City. Elle constitue une base scientifique solide pour mener à bien et concevoir une stratégie globale "Smart City".La troisième partie présente l’application de la méthodologie développée à la ville de Saint-Quentin. Après une analyse profonde du territoire, nous avons réalisé un diagnostic en vue d’un déploiement du concept Smart City. Ce travail a comporté une identification des enjeux de la ville et les pistes d’amélioration. A cet effet, une série de projets pilotes a été proposée.La quatrième partie présente une description du patrimoine immobilier de la ville de Saint-Quentin, ainsi qu’une analyse de leurs consommations énergétique et émissions de CO2.La dernière partie présente les travaux réalisés pour la transformation intelligente des bâtiments municipaux de la ville de Saint-Quentin. Deux sites d’expérimentation pilotes sont présentés : une salle de concerts et un groupe scolaire maternelle et primaire. Le chapitre présente également la méthodologie de déploiement des capteurs pour mesurer et suivre, en temps réel, les paramètres de confort et de sécurité ainsi que l’utilisation de ces données
This thesis work focuses on the deployment of the Smart City concept at the city level, with an application in the city of Saint-Quentin. The work, presented in this manuscript, contributes to enrich the Research in the field of the smart city with the objective of bridging the knowledge gap between theory and practice.Thus, the main objective is to develop a methodology for the development of a "Smart City" roadmap as the first phase of the implementation of a Smart City project.This thesis report is divided into five main parts.The first part presents a synthesis of the state of the art of research and practice on the Smart City in the world.The second part presents the methodology developed to conduct a smart city approach. It constitutes a solid scientific basis for carrying out and designing a global “Smart City” strategy.The third part is about the application of the methodology developed to the city of Saint-Quentin. After a deep analysis of the territory, we carried out a diagnosis with a view to deploying the Smart City concept. This task included identifying the challenges facing the city and areas for improvement. A series of pilot projects have been proposed.The fourth part consists on describing the real estate assets of the city of Saint-Quentin, as well as analyzing their energy consumption and CO2 emissions.At last but not least, the fifth part aims to reflect the work carried out for the intelligent transformation of municipal buildings in the city of Saint-Quentin. Two main test sites are presented : a hall for concerts and shows and a nursery and primary school group. This chapter also presents the methodology for deploying sensors to measure and monitor comfort and safety parameters in real time as well as the use of these data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Boudellal, Toufik. „Extraction de l'information à partir des flux de données“. Saint-Etienne, 2006. http://www.theses.fr/2006STET4014.

Der volle Inhalt der Quelle
Annotation:
L'intelligence artificielle est un thème général de travail en informatique. Nous trouvons dans cette thématique le traitement des données ou l'analyse de données. Ce domaine s'intéresse principalement à la recherche de différentes approches pour la découverte de connaissances. Les problèmes proposés à étudier dans cette thèse sont définis à l'intérieur de ce domaine. Nous commençons notre problématique par un passage sur les travaux en cours en extraction de connaissances à partir des flux de données. Ensuite, revenons sur la base de ces travaux pour étudier leurs portabilités aux systèmes de flux de données adaptatifs. Puis, nous proposons notre nouvelle approche ainsi que des résultats expérimentaux. Nous finirons par une conclusion de nos travaux et des perspectives de recherches dans cette nouvelle thématique
The aim of this work is an attempt to resolve a mining data streams specified problem. It is an adaptative analysis of data streams. The web generation proposes new challenges due to the complexity of data structures. As an example, the data issued from virtual galleries, credit card transactions,. . . Generally, such data are continuous in time, and their sizes are dynamic. We propose a new algorithm based on measures applied to adaptative data streams. The interpretation of results is possible due to such measures. In fact, we compare our algorithm experimentally to other adapted approaches that are considered fundamental in the field. A modified algorithm that is more useful in applications is also discussed. This thesis finishes with a suggestions set about our future work relating to noises data streams and another set of suggestions about the future needfully work
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Dematraz, Jessica. „Méthodologies d'extraction des connaissances issues de données hétérogènes pour l'innovation“. Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0716.

Der volle Inhalt der Quelle
Annotation:
A l’heure du Big Data où les technologies de l’information et de la communication battent leur plein, l’accès aux informations n’a jamais été aussi facile et rapide. Paradoxalement, l’information stratégique, soit l’information “utile”, celle qui permet de faciliter la prise de décision, n’a jamais été aussi rare et difficile à trouver. D’où l’importance de mettre en place un processus d’intelligence économique et plus précisément de veille, afin d’exploiter de manière efficace l’environnement informationnel d’un organisme, d’un secteur voire d’un pays entier. Aujourd’hui, la place prépondérente de l’information dans un contexte professionnel n’est plus à prouver. Les problématiques de veille telles qu’elles soient (stratégique, concurrentielle, technologique, réglementaire …) concernent les entités de tout secteur (public ou privé) et de toute taille (TPME/PME, ETI, grands groupes) et ce dans tous les domaines d’activités. Sauf qu’il n’existe pas une méthode unique applicable à tout et pour tous, mais une pluralité de méthodes qui doivent coexister pour arriver à faire jaillir la connaissance
In the age of Big Data, where information and communication technologies are in full swing, access to information has never been so easy and fast. Paradoxically, strategic information, that is, "useful" information, the information that facilitates decision-making, has never been so rare and difficult to find. Hence the importance of setting up a process of competitive intelligence and more precisely of information monitoring, in order to effectively exploit the information environment of an organization, a sector or even an entire country. Today, the predominance of information in a professional context is no longer to be proven. The monitoring issues as they are (strategic, competitive, technological, regulatory, etc.) concern entities of all sectors (public or private) and sizes (SMEs, ETIs, large groups) in all fields of activity. Except that there is no single method applicable to everything and for everyone, but a plurality of methods that must coexist to achieve the emergence of knowledge
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Masri, Ali. „Multi-Network integration for an Intelligent Mobility“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV091/document.

Der volle Inhalt der Quelle
Annotation:
Les systèmes de transport sont un des leviers puissants du progrès de toute société. Récemment les modes de déplacement ont évolué significativement et se diversifient. Les distances quotidiennement parcourues par les citoyens ne cessent d'augmenter au cours de ces dernières années. Cette évolution impacte l'attractivité et la compétitivité mais aussi la qualité de vie grandement dépendante de l'évolution des mobilités des personnes et des marchandises. Les gouvernements et les collectivités territoriales développent de plus en plus des politiques d'incitation à l'éco-mobilité. Dans cette thèse nous nous concentrons sur les systèmes de transport public. Ces derniers évoluent continuellement et offrent de nouveaux services couvrant différents modes de transport pour répondre à tous les besoins des usagers. Outre les systèmes de transports en commun, prévus pour le transport de masse, de nouveaux services de mobilité ont vu le jour, tels que le transport à la demande, le covoiturage planifié ou dynamique et l'autopartage ou les vélos en libre-service. Ils offrent des solutions alternatives de mobilité et pourraient être complémentaires aux services traditionnels. Cepandant, ces services sont à l'heure actuelle isolés du reste des modes de transport et des solutions multimodales. Ils sont proposés comme une alternative mais sans intégration réelle aux plans proposés par les outils existants. Pour permettre la multimodalité, le principal challenge de cette thèse est l'intégration de données et/ou de services provenant de systèmes de transports hétérogènes. Par ailleurs, le concept de données ouvertes est aujourd'hui adopté par de nombreuses organisations publiques et privées, leur permettant de publier leurs sources de données sur le Web et de gagner ainsi en visibilité. On se place dans le contexte des données ouvertes et des méthodes et outils du web sémantique pour réaliser cette intégration, en offrant une vue unifiée des réseaux et des services de transport. Les verrous scientifiques auxquels s'intéresse cette thèse sont liés aux problèmes d'intégration à la fois des données et des services informatiques des systèmes de transport sous-jacents
Multimodality requires the integration of heterogeneous transportation data and services to construct a broad view of the transportation network. Many new transportation services (e.g. ridesharing, car-sharing, bike-sharing) are emerging and gaining a lot of popularity since in some cases they provide better trip solutions.However, these services are still isolated from the existing multimodal solutions and are proposed as alternative plans without being really integrated in the suggested plans. The concept of open data is raising and being adopted by many companies where they publish their data sources to the web in order to gain visibility. The goal of this thesis is to use these data to enable multimodality by constructing an extended transportation network that links these new services to existing ones.The challenges we face mainly arise from the integration problem in both transportation services and transportation data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Saïs, Fatiha. „Intégration sémantique de données guidée par une ontologie“. Paris 11, 2007. http://www.theses.fr/2007PA112300.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous traitons du problème d'intégration sémantique de données. L’objectif est de pouvoir combiner des sources de données autonomes et hétérogènes. Pour y parvenir, toutes les données doivent être représentées selon un même schéma et selon une sémantique unifiée. Cette thèse est articulée en deux parties relativement indépendantes. La première présente une méthode automatique et flexible de réconciliation de données avec une ontologie dans le cas où les données sont représentées dans des tableaux. Pour représenter le résultat de la réconciliation, nous avons défini le format SML dont l’originalité est de permettre de représenter tous les appariements trouvés mais également les informations imparfaitement identifiées. La seconde partie présente deux méthodes de réconciliation de références décrites relativement à un même schéma. Il s’agit de décider si des descriptions différentes se réfèrent à la même entité du monde réel. La première méthode, nommée L2R, est logique. La sémantique des données et du schéma y est traduite par un ensemble de règles de (non) réconciliation permettant d’inférer des décisions de (non) réconciliation certaines. La seconde, nommée N2R, est numérique. Dans cette méthode, la sémantique du schéma est traduite par une mesure de similarité informée utilisée pour calculer la similarité des paires de références. Ce calcul est exprimé dans un système d’équations non linéaire résolu par une méthode itérative. Ces méthodes obtiennent des résultats satisfaisants sur des données réelles, ce qui montre la faisabilité d’approches complètement automatiques et guidées uniquement par une ontologie pour ces deux problèmes de réconciliation
This thesis deals with semantic data integration guided by an ontology. Data integration aims at combining autonomous and heterogonous data sources. To this end, all the data should be represented according to the same schema and according to a unified semantics. This thesis is divided into two parts. In the first one, we present an automatic and flexible method for data reconciliation with an ontology. We consider the case where data are represented in tables. The reconciliation result is represented in the SML format which we have defined. Its originality stems from the fact that it allows representing all the established mappings but also information that is imperfectly identified. In the second part, we present two methods of reference reconciliation. This problem consists in deciding whether different data descriptions refer to the same real world entity. We have considered this problem when data is described according to the same schema. The first method, called L2R, is logical: it translates the schema and the data semantics into a set of logical rules which allow inferring correct decisions both of reconciliation and no reconciliation. The second method, called N2R, is numerical. It translates the schema semantics into an informed similarity measure used by a numerical computation of the similarity of the reference pairs. This computation is expressed in a non linear equation system solved by using an iterative method. Our experiments on real datasets demonstrated the robustness and the feasibility of our approaches. The solutions that we bring to the two problems of reconciliation are completely automatic and guided only by an ontology
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Ravi, Mondi. „Confiance et incertitude dans les environnements distribués : application à la gestion des donnéeset de la qualité des sources de données dans les systèmes M2M (Machine to Machine)“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM090/document.

Der volle Inhalt der Quelle
Annotation:
La confiance et l'incertitude sont deux aspects importants des systèmes distribués. Par exemple, de multiples sources d'information peuvent fournir le même type d'information. Cela pose le problème de sélectionner la source la plus fiable et de résoudre l'incohérence dans l'information disponible. Gérer de front la confiance et l'incertitude constitue un problème complexe et nous développons à travers cette thèse, une solution pour y répondre. La confiance et l'incertitude sont intrinsèquement liés. La confiance concerne principalement les sources d'information alors que l'incertitude est une caractéristique de l'information elle-même. En l'absence de mesures de confiance et d'incertitude, un système doit généralement faire face à des problèmes tels que l'incohérence et l'incertitude. Pour aborder ce point, nous émettons l'hypothèse que les sources dont les niveaux de confiance sont élevés produiront de l'information plus fiable que les sources dont les niveaux de confiance sont inférieurs. Nous utilisons ensuite les mesures de confiance des sources pour quantifier l'incertitude dans l'information et ainsi obtenir des conclusions de plus haut niveau avec plus de certitude.Une tendance générale dans les systèmes distribués modernes consiste à intégrer des capacités de raisonnement dans les composants pour les rendre intelligents et autonomes. Nous modélisons ces composants comme des agents d'un système multi-agents. Les principales sources d'information de ces agents sont les autres agents, et ces derniers peuvent posséder des niveaux de confiance différents. De plus, l'information entrante et les croyances qui en découlent sont associées à un degré d'incertitude. Par conséquent, les agents sont confrontés à un double problème: celui de la gestion de la confiance sur les sources et celui de la présence de l'incertitude dans l'information. Nous illustrons cela avec trois domaines d'application: (i) la communauté intelligente, (ii) la collecte des déchets dans une ville intelligente, et (iii) les facilitateurs pour les systèmes de l'internet du futur (FIWARE - le projet européen n° 285248, qui a motivé la recherche sur nos travaux). La solution que nous proposons consiste à modéliser les composants de ces domaines comme des agents intelligents qui incluent un module de gestion de la confiance, un moteur d'inférence et un système de révision des croyances. Nous montrons que cet ensemble d'éléments peut aider les agents à gérer la confiance aux autres sources, à quantifier l'incertitude dans l'information et à l'utiliser pour aboutir à certaines conclusions de plus haut niveau. Nous évaluons finalement notre approche en utilisant des données à la fois simulées et réelles relatives aux différents domaines d'application
Trust and uncertainty are two important aspects of many distributed systems. For example, multiple sources of information can be available for the same type of information. This poses the problem to select the best source that can produce the most certain information and to resolve incoherence amongst the available information. Managing trust and uncertainty together forms a complex problem and through this thesis we develop a solution to this. Trust and uncertainty have an intrinsic relationship. Trust is primarily related to sources of information while uncertainty is a characteristic of the information itself. In the absence of trust and uncertainty measures, a system generally suffers from problems like incoherence and uncertainty. To improve on this, we hypothesize that the sources with higher trust levels will produce more certain information than those with lower trust values. We then use the trust measures of the information sources to quantify uncertainty in the information and thereby infer high level conclusions with greater certainty.A general trend in the modern distributed systems is to embed reasoning capabilities in the end devices to make them smart and autonomous. We model these end devices as agents of a Multi Agent System. Major sources of beliefs for such agents are external information sources that can possess varying trust levels. Moreover, the incoming information and beliefs are associated with a degree of uncertainty. Hence, the agents face two-fold problems of managing trust on sources and presence of uncertainty in the information. We illustrate this with three application domains: (i) The intelligent community, (ii) Smart city garbage collection, and (iii) FIWARE : a European project about the Future Internet that motivated the research on this topic. Our solution to the problem involves modelling the devices (or entities) of these domains as intelligent agents that comprise a trust management module, an inference engine and a belief revision system. We show that this set of components can help agents to manage trust on the other sources and quantify uncertainty in the information and then use this to infer more certain high level conclusions. We finally assess our approach using simulated and real data pertaining to the different application domains
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Boudane, Abdelhamid. „Fouille de données par contraintes“. Thesis, Artois, 2018. http://www.theses.fr/2018ARTO0403/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous abordons les problèmes bien connus de clustering et de fouille de règles d’association. Notre première contribution introduit un nouveau cadre de clustering, où les objets complexes sont décrits par des formules propositionnelles. Premièrement, nous adaptons les deux fameux algorithmes de clustering, à savoir, le k-means et l’algorithme hiérarchique ascendant, pour traiter ce type d’objets complexes. Deuxièmement, nous introduisons un nouvel algorithme hiérarchique descendant pour le clustering des objets représentés explicitement par des ensembles de modèles. Enfin, nous proposons un encodage basé sur la satisfiabilité propositionnelle du problème de clustering des formules propositionnelles sans avoir besoin d’une représentation explicite de leurs modèles. Dans une seconde contribution, nous proposons une nouvelle approche basée sur la satisfiabilité pour extraire les règles d’association en une seule étape. La tâche est modélisée comme une formule propositionnelle dont les modèles correspondent aux règles à extraire. Pour montrer la flexibilité de notre cadre, nous abordons également d’autres variantes, à savoir, l’extraction des règles d’association fermées, minimales non redondantes, les plus générales et les indirectes. Les expérimentations sur de nombreux jeux de données montrent que sur la majorité des tâches de fouille de règles d’association considérées, notre approche déclarative réalise de meilleures performances que les méthodes spécialisées
In this thesis, We adress the well-known clustering and association rules mining problems. Our first contribution introduces a new clustering framework, where complex objects are described by propositional formulas. First, we extend the two well-known k-means and hierarchical agglomerative clustering techniques to deal with these complex objects. Second, we introduce a new divisive algorithm for clustering objects represented explicitly by sets of models. Finally, we propose a propositional satisfiability based encoding of the problem of clustering propositional formulas without the need for an explicit representation of their models. In a second contribution, we propose a new propositional satisfiability based approach to mine association rules in a single step. The task is modeled as a propositional formula whose models correspond to the rules to be mined. To highlight the flexibility of our proposed framework, we also address other variants, namely the closed, minimal non-redundant, most general and indirect association rules mining tasks. Experiments on many datasets show that on the majority of the considered association rules mining tasks, our declarative approach achieves better performance than the state-of-the-art specialized techniques
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Duong, Ngoc Son. „Instrumentation de chaussées : la route intelligente qui s’auto-détecte ?“ Thesis, Ecole centrale de Nantes, 2017. http://www.theses.fr/2017ECDN0033.

Der volle Inhalt der Quelle
Annotation:
Les itinéraires routiers supportant un nombre élevé de véhicules lourds ont habituellement des structures de chaussées épaisses et peu déformables. A ce jour, l’évaluation de l’état structurel réalisée au moyen d’appareils de mesure de déflexion (déflectographe ou curviamètre) et les relevés de dégradation sont souvent insuffisants pour détecter le début d’endommagement des structures épaisses. Afin de mesurer de façon plus précise et en continue, la réponse mécanique de la chaussée, des sections autoroutières ont été instrumentées au moyen de capteurs spécifiques (jauges, sondes de température et géophones) qui constituent un moyen d’auscultation complémentaire. L’exploitation des mesures sous trafic réel génère cependant une grande quantité des données et une variabilité des mesures qui conduisent à proposer une procédure originale de tri des signaux. Le traitement des mesures des jauges permet d’analyser les variations réelles des déformations en prenant en compte les variations journalières et saisonnières des paramètres environnementaux. Une modélisation avec différentes hypothèses de comportement aux interfaces des différentes couches de la chaussée est ensuite proposée, ce qui permet d’améliorer la compréhension du comportement mécanique de la chaussée sous trafic réel. Le traitement des mesures des géophones permet de remonter à la mesure de la déflexion qui représente la capacité portante de la chaussée. L’utilisation des différents géophones permet également d’identifier les silhouettes des poids-lourds et d’estimer leur vitesse ainsi que leur position latérale. Ces travaux répondent à une demande très actuelle des gestionnaires d’ouvrages, qui souhaitent disposer d’outils pour le monitoring dans le temps de leurs infrastructures
Recently, the roads supporting a great number of heavy vehicles usually have a thick and little deformable structure. To evaluate the pavement performances, deflection measurement devices have been used. However, these measurements are not accurate and the degradation detection is not enough to detect the start of pavement damage.In order to obtain more accurate and continuous mechanical pavement measurements, highway sections were instrumented with specific sensors (temperature probes, strain gages, geophones). However, the measurements analysis under real traffic generates a great number of data and a variability of measurements. Therefore, this problem requires an original signal sorting process. The study of strain measurements allows analyzing real strain variations which take in account the daily and seasonal variations of environment parameters.Modelling calculations with different assumptions were carried out afterward in order to obtain the best prediction for the mechanical pavement behavior. The study of geophone measurements allows measuring pavement deflections which represent pavement bearing capacity. In addition, different geophones were used to characterize heavy vehicle silhouettes, vehicle speeds and their lateral positions. The thesis work meets the expected requirement of construction managers to monitor continuously their infrastructures under real traffic
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Salem, Rashed. „Active XML Data Warehouses for Intelligent, On-line Decision Support“. Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO22002.

Der volle Inhalt der Quelle
Annotation:
Un système d'aide à la décision (SIAD) est un système d'information qui assiste lesdécideurs impliqués dans les processus de décision complexes. Les SIAD modernesont besoin d'exploiter, en plus de données numériques et symboliques, des donnéeshétérogènes (données texte, données multimédia, ...) et provenant de sources diverses(comme le Web). Nous qualifions ces données complexes. Les entrepôts dedonnées forment habituellement le socle des SIAD. Ils permettent d'intégrer des données provenant de diverses sources pour appuyer le processus décisionnel. Cependant, l'avènement de données complexes impose une nouvelle vision de l'entreposagedes données, y compris de l'intégration des données, de leur stockage et de leuranalyse. En outre, les exigences d'aujourd'hui imposent l'intégration des donnéescomplexes presque en temps réel, pour remplacer le processus ETL traditionnel(Extraction, Transformation et chargement). Le traitement en temps réel exige unprocessus ETL plus actif. Les tâches d'intégration doivent réagir d'une façon intelligente, c'est-à-dire d'une façon active et autonome pour s'adapter aux changementsrencontrés dans l'environnement d'intégration des données, notamment au niveaudes sources de données.Dans cette thèse, nous proposons des solutions originales pour l'intégration dedonnées complexes en temps réel, de façon active et autonome. En eet, nous avons conçu une approche générique basé sur des métadonnées, orientée services et orienté évènements pour l'intégration des données complexes. Pour prendre en charge lacomplexité des données, notre approche stocke les données complexes à l'aide d'unformat unie en utilisant une approche base sur les métadonnées et XML. Nous noustraitons également la distribution de données et leur l'interopérabilité en utilisantune approche orientée services. Par ailleurs, pour considérer le temps réel, notreapproche stocke non seulement des données intégrées dans un référentiel unie,mais présente des fonctions d'intégration des données a la volée. Nous appliquonségalement une approche orientée services pour observer les changements de donnéespertinentes en temps réel. En outre, l'idée d'intégration des données complexes defaçon active et autonome, nous proposons une méthode de fouille dans les évènements.Pour cela, nous proposons un algorithme incrémentiel base sur XML pourla fouille des règles d'association a partir d’évènements. Ensuite, nous denissonsdes règles actives a l'aide des données provenant de la fouille d'évènements an deréactiver les tâches d'intégration.Pour valider notre approche d'intégration de données complexes, nous avons développé une plateforme logicielle, à savoir AX-InCoDa ((Active XML-based frameworkfor Integrating Complex Data). AX-InCoDa est une application Web implémenté à l'aide d'outils open source. Elle exploite les standards du Web (comme les services Web et XML) et le XML actif pour traiter la complexité et les exigences temps réel. Pour explorer les évènements stockés dans base d'évènement, nous avons proposons une méthode de fouille d'évènements an d'assurer leur autogestion.AX-InCoDa est enrichi de règles actives L'ecacite d'AX-InCoDa est illustrée par une étude de cas sur des données médicales. En, la performance de notre algorithme de fouille d'évènements est démontrée expérimentalement
A decision support system (DSS) is an information system that supports decisionmakers involved in complex decision-making processes. Modern DSSs needto exploit data that are not only numerical or symbolic, but also heterogeneouslystructured (e.g., text and multimedia data) and coming from various sources (e.g,the Web). We term such data complex data. Data warehouses are casually usedas the basis of such DSSs. They help integrate data from a variety of sourcesto support decision-making. However, the advent of complex data imposes anothervision of data warehousing including data integration, data storage and dataanalysis. Moreover, today's requirements impose integrating complex data in nearreal-time rather than with traditional snapshot and batch ETL (Extraction, Transformationand Loading). Real-time and near real-time processing requires a moreactive ETL process. Data integration tasks must react in an intelligent, i.e., activeand autonomous way, to encountered changes in the data integration environment,especially data sources.In this dissertation, we propose novel solutions for complex data integration innear real-time, actively and autonomously. We indeed provide a generic metadatabased,service-oriented and event-driven approach for integrating complex data.To address data complexity issues, our approach stores heterogeneous data into aunied format using a metadata-based approach and XML. We also tackle datadistribution and interoperability using a service-oriented approach. Moreover, toaddress near real-time requirements, our approach stores not only integrated datainto a unied repository, but also functions to integrate data on-the-y. We also apply a service-oriented approach to track relevant data changes in near real-time.Furthermore, the idea of integrating complex data actively and autonomously revolvesaround mining logged events of data integration environment. For this sake,we propose an incremental XML-based algorithm for mining association rules fromlogged events. Then, we de ne active rules upon mined data to reactivate integrationtasks.To validate our approach for managing complex data integration, we develop ahigh-level software framework, namely AX-InCoDa (Active XML-based frameworkfor Integrating Complex Data). AX-InCoDa is implemented as Web application usingopen-source tools. It exploits Web standards (e.g., XML and Web services) andActive XML to handle complexity issues and near real-time requirements. Besidewarehousing logged events into an event repository to be mined for self-managingpurposes, AX-InCoDa is enriched with active rules. AX-InCoDa's feasibility is illustratedby a healthcare case study. Finally, the performance of our incremental eventmining algorithm is experimentally demonstrated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Vigneron, Vincent. „Programmation par contraintes et découverte de motifs sur données séquentielles“. Thesis, Angers, 2017. http://www.theses.fr/2017ANGE0028/document.

Der volle Inhalt der Quelle
Annotation:
Des travaux récents ont montré l’intérêt de la programmation par contraintes pour la fouille de données. Dans cette thèse, nous nous intéressons à la recherche de motifs sur séquences, et en particulier à la caractérisation, à l’aide de motifs, de classes de séquences pré-établies. Nous proposons à cet effet un langage de modélisation à base de contraintes qui suppose une représentation matricielle du jeu de séquences. Un motif s’y définit comme un ensemble de caractères (ou de patrons) et pour chacun une localisation dans différentes séquences. Diverses contraintes peuvent alors s’appliquer : validité des localisations, couverture d’une classe de séquences, ordre sur les localisations des caractères commun aux séquences, etc. Nous formulons deux problèmes de caractérisation NP-complets : la caractérisation par motif totalement ordonné (e.g. sous-séquence exclusive à une classe) ou partiellement ordonné. Nous en donnons deux modélisations CSP qui intègrent des contraintes globales pour la preuve d’exclusivité. Nous introduisons ensuite un algorithme mémétique pour l’extraction de motifs partiellement ordonnés qui s’appuie sur la résolution CSP lors des phases d’initialisation et d’intensification. Cette approche hybride se révèle plus performante que l’approche CSP pure sur des séquences biologiques. La mise en forme matricielle de jeux de séquences basée sur une localisation des caractères peut être de taille rédhibitoire. Nous proposons donc de localiser des patrons plutôt que des caractères. Nous présentons deux méthodes ad-hoc, l’une basée sur un parcours de treillis et l’autre sur la programmation dynamique
Recent works have shown the relevance of constraint programming to tackle data mining tasks. This thesis follows this approach and addresses motif discovery in sequential data. We focus in particular, in the case of classified sequences, on the search for motifs that best fit each individual class. We propose a language of constraints over matrix domains to model such problems. The language assumes a preprocessing of the data set (e.g., by pre-computing the locations of each character in each sequence) and views a motif as the choice of a sub-matrix (i.e., characters, sequences, and locations). We introduce different matrix constraints (compatibility of locations with the database, class covering, location-based character ordering common to sequences, etc.) and address two NP-complete problems: the search for class-specific totally ordered motifs (e.g., exclusive subsequences) or partially ordered motifs. We provide two CSP models that rely on global constraints to prove exclusivity. We then present a memetic algorithm that uses this CSP model during initialisation and intensification. This hybrid approach proves competitive compared to the pure CSP approach as shown by experiments carried out on protein sequences. Lastly, we investigate data set preprocessing based on patterns rather than characters, in order to reduce the size of the resulting matrix domain. To this end, we present and compare two alternative methods, one based on lattice search, the other on dynamic programming
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Kuchmann-Beauger, Nicolas. „Question Answering System in a Business Intelligence Context“. Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2013. http://www.theses.fr/2013ECAP0021/document.

Der volle Inhalt der Quelle
Annotation:
Le volume et la complexité des données générées par les systèmes d’information croissent de façon singulière dans les entrepôts de données. Le domaine de l’informatique décisionnelle (aussi appelé BI) a pour objectif d’apporter des méthodes et des outils pour assister les utilisateurs dans leur tâche de recherche d’information. En effet, les sources de données ne sont en général pas centralisées, et il est souvent nécessaire d’interagir avec diverses applications. Accéder à l’information est alors une tâche ardue, alors que les employés d’une entreprise cherchent généralement à réduire leur charge de travail. Pour faire face à ce constat, le domaine « Enterprise Search » s’est développé récemment, et prend en compte les différentes sources de données appartenant aussi bien au réseau privé d’entreprise qu’au domaine public (telles que les pages Internet). Pourtant, les utilisateurs de moteurs de recherche actuels souffrent toujours de du volume trop important d’information à disposition. Nous pensons que de tels systèmes pourraient tirer parti des méthodes du traitement naturel des langues associées à celles des systèmes de questions/réponses. En effet, les interfaces en langue naturelle permettent aux utilisateurs de rechercher de l’information en utilisant leurs propres termes, et d’obtenir des réponses concises et non une liste de documents dans laquelle l’éventuelle bonne réponse doit être identifiée. De cette façon, les utilisateurs n’ont pas besoin d’employer une terminologie figée, ni de formuler des requêtes selon une syntaxe très précise, et peuvent de plus accéder plus rapidement à l’information désirée. Un challenge lors de la construction d’un tel système consiste à interagir avec les différentes applications, et donc avec les langages utilisés par ces applications d’une part, et d’être en mesure de s’adapter facilement à de nouveaux domaines d’application d’autre part. Notre rapport détaille un système de questions/réponses configurable pour des cas d’utilisation d’entreprise, et le décrit dans son intégralité. Dans les systèmes traditionnels de l’informatique décisionnelle, les préférences utilisateurs ne sont généralement pas prises en compte, ni d’ailleurs leurs situations ou leur contexte. Les systèmes état-de-l’art du domaine tels que Soda ou Safe ne génèrent pas de résultats calculés à partir de l’analyse de la situation des utilisateurs. Ce rapport introduit une approche plus personnalisée, qui convient mieux aux utilisateurs finaux. Notre expérimentation principale se traduit par une interface de type search qui affiche les résultats dans un dashboard sous la forme de graphes, de tables de faits ou encore de miniatures de pages Internet. En fonction des requêtes initiales des utilisateurs, des recommandations de requêtes sont aussi affichées en sus, et ce dans le but de réduire le temps de réponse global du système. En ce sens, ces recommandations sont comparables à des prédictions. Notre travail se traduit par les contributions suivantes : tout d’abord, une architecture implémentée via des algorithmes parallélisés et qui prend en compte la diversité des sources de données, à savoir des données structurées ou non structurées dans le cadre d’un framework de questions/réponses qui peut être facilement configuré dans des environnements différents. De plus, une approche de traduction basée sur la résolution de contrainte, qui remplace le traditionnel langage-pivot par un modèle conceptuel et qui conduit à des requêtes multidimensionnelles mieux personnalisées. En outre, en ensemble de patrons linguistiques utilisés pour traduire des questions BI en des requêtes pour bases de données, qui peuvent être facilement adaptés dans le cas de configurations différentes
The amount and complexity of data generated by information systems keep increasing in Warehouses. The domain of Business Intelligence (BI) aims at providing methods and tools to better help users in retrieving those data. Data sources are distributed over distinct locations and are usually accessible through various applications. Looking for new information could be a tedious task, because business users try to reduce their work overload. To tackle this problem, Enterprise Search is a field that has emerged in the last few years, and that takes into consideration the different corporate data sources as well as sources available to the public (e.g. World Wide Web pages). However, corporate retrieval systems nowadays still suffer from information overload. We believe that such systems would benefit from Natural Language (NL) approaches combined with Q&A techniques. Indeed, NL interfaces allow users to search new information in their own terms, and thus obtain precise answers instead of turning to a plethora of documents. In this way, users do not have to employ exact keywords or appropriate syntax, and can have faster access to new information. Major challenges for designing such a system are to interface different applications and their underlying query languages on the one hand, and to support users’ vocabulary and to be easily configured for new application domains on the other hand. This thesis outlines an end-to-end Q&A framework for corporate use-cases that can be configured in different settings. In traditional BI systems, user-preferences are usually not taken into account, nor are their specific contextual situations. State-of-the art systems in this field, Soda and Safe do not compute search results on the basis of users’ situation. This thesis introduces a more personalized approach, which better speaks to end-users’ situations. Our main experimentation, in this case, works as a search interface, which displays search results on a dashboard that usually takes the form of charts, fact tables, and thumbnails of unstructured documents. Depending on users’ initial queries, recommendations for alternatives are also displayed, so as to reduce response time of the overall system. This process is often seen as a kind of prediction model. Our work contributes to the following: first, an architecture, implemented with parallel algorithms, that leverages different data sources, namely structured and unstructured document repositories through an extensible Q&A framework, and this framework can be easily configured for distinct corporate settings; secondly, a constraint-matching-based translation approach, which replaces a pivot language with a conceptual model and leads to more personalized multidimensional queries; thirdly, a set of NL patterns for translating BI questions in structured queries that can be easily configured in specific settings. In addition, we have implemented an iPhone/iPad™ application and an HTML front-end that demonstrate the feasibility of the various approaches developed through a series of evaluation metrics for the core component and scenario of the Q&A framework. To this end, we elaborate on a range of gold-standard queries that can be used as a basis for evaluating retrieval systems in this area, and show that our system behave similarly as the well-known WolframAlpha™ system, depending on the evaluation settings
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Poussevin, Mickael. „Apprentissage de représentation pour des données générées par des utilisateurs“. Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066040.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Bezet, Olivier. „Etude de la qualité temporelle des données dans un système distribué pour la fusion multi-capteurs“. Compiègne, 2005. http://www.theses.fr/2005COMP1586.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre de la fusion ou la combinaison de données multi-capteurs en environnement distribué. L'objectif est d'améliorer la justesse des données par la prise en compte de leur erreur de datation. L'application traite d'un système d'acquisition et de traitement de données, embarqué dans un véhicule expérimental. Dans une première partie, une méthode de mise en correspondance de datations par intervalles en environnement distribué est proposée. En plus d'une bonne qualité de synchronisation, la méthode offre l'avantage de limiter les échanges sur le bus. La deuxième partie expose une méthode pour convertir linéairement des données datées par intervalles en données datées ponctuellement afin de pourvoir se servir d'algorithmes utilisant des dates exactes. L'erreur de datation est ainsi répercutée sur la précision de la donnée. Des expérimentations dans les aides à la conduite ont validé cette étude
The research work depicted in this thesis concerns the multi-sensor data fusion or combination in distributed environments. The objective is to improve the data accuracy by taking into account the timestamping error. The target application considered in this thesis consists of a data acquisition and processing system, embedded in an instrumented vehicle. Firstly, a method of interval timestamping correspondence in distributed environment is proposed. Ln addition to the good synchronization quality, the method has the advantage of limiting the exchanged messages on the bus. Ln the second stage and in order to reuse existing algorithms based on exact dates, we propose a method to convert linearly interval dates into punctual dates. The timestamping error is thus reflected on data imprecision. Different experiments in the advanced driver assistance systems domain have validated this study
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Kou, Huaizhong. „Génération d'adaptateurs web intelligents à l'aide de techniques de fouilles de texte“. Versailles-St Quentin en Yvelines, 2003. http://www.theses.fr/2003VERS0011.

Der volle Inhalt der Quelle
Annotation:
Cette thèse définit un système d'informations Web d'intégration sémantique, appelé SEWISE qui peut intégrer des informations textuelles provenant de différentes sources Web. Dans SEWISE les adaptateurs Web sont construits autour de différents sites Web pour extraire automatiquement des informations intéressantes. Des technologies de fouille de texte sont alors employées pour découvrir des sémantiques abordées dans les documents. SEWISE peut assister à la recherche des informations sur le Web. Trois problèmes liés à la catégorisation de document sont étudiés. Premièrement, nous étudions les approches de sélection de termes et nous proposons deux approches CBA et IBA pour choisir ces termes. Puis, pour estimer des associations statistiques entre termes, un modèle mathématique est proposé. Finalement, les algorithmes de calculs de scores de catégories employées par des classificateurs k-NN sont étudiés. Deux algorithmes pondérés CBW et IBW pour calculer des scores de catégories sont proposés
This thesis defines a system framework of semantically integrating Web information, called SEWISE. It can integrate text information from various Web sources belonging to an application domain into common domain-specific concept ontology. In SEWISE, Web wrappers are built around different Web sites to automatically extract interesting information from. Text mining technologies are then used to discover the semantics Web documents talk about. SEWISE can ease topic-oriented information researches over the Web. Three problems related to the document categorization are studied. Firstly, we investigate the approaches to feature selection and proposed two approaches CBA and IBA to select features. To estimate statistic term associations and integrate them within document similarity model, a mathematical model is proposed. Finally, the category score calculation algorithms used by k-NN classifiers are studied. Two weighted algorithms CBW and IBW to calculate category score are proposed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie