Gotowa bibliografia na temat „Détection de dérive”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Détection de dérive”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Artykuły w czasopismach na temat "Détection de dérive"

1

Lalanne, Aurélie, i Martin Zumpe. "La croissance des villes canadiennes et australiennes guidée par le hasard ? Enjeux et mesure de la croissance aléatoire urbaine". Canadian Journal of Regional Science 42, nr 2 (9.11.2021): 123–29. http://dx.doi.org/10.7202/1083621ar.

Pełny tekst źródła
Streszczenie:
Cet article apporte des éclaircissements quant à l’existence d’une croissance urbaine aléatoire pour les cas Canadien et Australien. La détection de ces processus passe par un approfondissement du protocole de test en distinguant trois spécifications : marche aléatoire pure, avec dérive, et avec dérive et tendance. L’article démontre que la croissance urbaine comporte effectivement une dimension aléatoire. Les petites aires urbaines y sont plus sensibles et leur croissance dépend exclusivement de chocs. Les grandes aires urbaines et celles qui détiennent des activités économiques métropolitaines, croissent sous l’effet d’une tendance déterministe diluant l’effet des chocs, les rendant moins fragiles.
Style APA, Harvard, Vancouver, ISO itp.
2

ZIDAOUI, I., C. JOANNIS, J. WERTEL, S. ISEL, C. WEMMERT, J. VAZQUEZ i M. DUFRESNE. "Utilisation de l’intelligence artificielle pour la validation des mesures en continu de la pollution des eaux usées". Techniques Sciences Méthodes 11 (21.11.2022): 39–51. http://dx.doi.org/10.36904/tsm/202211039.

Pełny tekst źródła
Streszczenie:
Pour lutter contre la pollution des masses d’eaux, la réglementation française impose la mesure et la régulation des rejets d’eaux usées dans l’environnement. Cependant, malgré les progrès dans le domaine des systèmes d’acquisition de données, les capteurs, tout particulièrement les sondes de turbidité, installés dans des milieux agressifs tels que les réseaux d’assainissement sont sujets à des dysfonctionnements fréquents (dérive, saturation, données manquantes…), qui peuvent fausser l’évaluation du flux de pollution. Il est donc essentiel d’identifier les potentielles anomalies avant toute utilisation des données. Aujourd’hui, cette validation se fait au niveau de la supervision et/ou via des opérateurs. L’objectif de ce travail est d’évaluer le potentiel des outils d’intelligence artificielle à automatiser la validation et d’estimer la plus-value de cette approche par rapport à une validation « métier » effectuée par un expert. Pour cela, quatre algorithmes de détection d’anomalies de l’état de l’art sont comparés en utilisant des données de turbidité issues du réseau de collecte de Saint-Malo Agglomération. La plupart de ces algorithmes ne sont pas adaptés à la nature des données étudiées qui sont hétérogènes et bruitées. Seul l’algorithme Matrix Profile permet d’obtenir des résultats prometteurs avec une majorité d’anomalies détectées et un nombre de faux positifs relativement limités.
Style APA, Harvard, Vancouver, ISO itp.
3

GONZÁLEZ VÁZQUEZ, B., J. M. CHOUBERT, E. PAUL i J. P. CANLER. "Comment éviter le colmatage irréversible des installations de biofiltration ?" Techniques Sciences Méthodes, nr 11 (20.11.2020): 71–86. http://dx.doi.org/10.36904/tsm/202011071.

Pełny tekst źródła
Streszczenie:
La biofiltration est une technologie compacte et efficace pour le traitement des effluents urbains. Certaines installations sont régulièrement touchées par un colmatage irréversible, nécessitant une opération curative pour retrouver sa capacité de traitement. Une première enquête menée en 2007 avait évalué l’ampleur du colmatage des biofiltres, et sensibilisé exploitants et concepteurs au phénomène. En 2018, une seconde enquête a réévalué l’ampleur du colmatage des biofiltres, a approfondi les causes et les moyens de détection de ce phénomène. Nous avons consulté les 128 biofiltres existants sur le territoire national ainsi que quelques installations d’autres pays européens, afin de collecter des données de construction et d’exploitation de différentes technologies (Biofor, Biostyr, Biolest, Biopur) fonctionnant dans différentes configurations. Nous avons également recueilli les informations concernant les cycles de lavage et la fréquence observée des colmatages irréversibles. Le taux de réponse a été de 33% donnant un échantillon de réponse représentatif du parc de biofiltres français. Nous avons montré que le colmatage irréversible semble en régression et touche principalement les installations en première étape de traitement (après le décanteur primaire). Le risque de colmatage irréversible est important au-delà de 5,8 kg de demande chimique en oxygène (DCO)/m3 matériau/cycle de filtration et de 2,1 kg de matières en suspension (MES)/m3 matériau/cycle. Néanmoins, il est également important pour des charges volumiques inférieures dans le cas d’effluents très organiques (ratios DCO/MES > 3,2), lié à une accumulation importante de biomasse malgré la faible charge en matières en suspension appliquée. L’étude a permis d’énoncer et de hiérarchiser des règles d’exploitation comprenant des indicateurs de dérive vers le colmatage irréversible, ainsi que des moyens de lutte préventifs et curatifs.
Style APA, Harvard, Vancouver, ISO itp.
4

Bazus, Léa, Nicolas Cimetiere, Laurent Legentil, Guy Randon i Dominique Wolbert. "Recherche de dérivés conjugués de médicaments dans l’eau de surface et en cours de potabilisation". Revue des sciences de l’eau 28, nr 1 (21.04.2015): 19–25. http://dx.doi.org/10.7202/1030003ar.

Pełny tekst źródła
Streszczenie:
Les médicaments à usage humain ou vétérinaire se retrouvent, par différents moyens, dans les milieux aquatiques et notamment dans les filières de potabilisation des eaux. Les médicaments sont en partie métabolisés après ingestion (le pourcentage dépend du principe actif et est compris entre 1 et 99 %). Des médicaments se retrouvent alors dans les eaux destinées à la consommation humaine avec des concentrations allant du ng/L à la centaine de ng/L. Différents types de métabolites existent, et parmi eux les dérivés conjugués. Ils peuvent représenter 90 % des métabolites d’un principe actif. Le travail présenté ici décrit le développement d’une méthode analytique par « Solid Phase Extraction » (SPE) en ligne – chromatographie liquide haute performance – spectrométrie de masse en tandem (LC-MS/MS) pour la détermination et la quantification de principes actifs et leurs dérivés conjugués dans les eaux de surface et en cours de potabilisation. Ces dérivés conjugués sont susceptibles de subir une déconjugaison lors des traitements de potabilisation conduisant au relargage du principe actif. C’est pourquoi il est nécessaire de s’intéresser à ces molécules et en particulier les conjugués glucuronides. Comme tous les standards ne se sont pas disponibles dans le commerce, une nouvelle voie de synthèse en milieu aqueux a été explorée. Des analyses sont effectuées en entrée et sortie de filière de potabilisation d’eau afin de déterminer les concentrations présentes en principes actifs et leurs dérivés conjugués. Les limites de détection et de quantification obtenues sont de l’ordre du ng/L ou la dizaine de ng/L.
Style APA, Harvard, Vancouver, ISO itp.
5

Le Bris, Arnaud, Cyril Wendl, Nesrine Chehata, Anne Puissant i Tristan Postadjian. "Fusion tardive d'images SPOT-6/7 et de données multi-temporelles Sentinel-2 pour la détection de la tâche urbaine". Revue Française de Photogrammétrie et de Télédétection, nr 217-218 (21.09.2018): 87–97. http://dx.doi.org/10.52638/rfpt.2018.415.

Pełny tekst źródła
Streszczenie:
La fusion d'images multispectrales à très haute résolution spatiale (THR) avec des séries temporelles d'images moins résolues spatialement mais comportant plus de bandes spectrales permet d'améliorer la classification de l'occupation du sol. Elle tire en effet le meilleur parti des points forts géométriques et sémantiques de ces deux sources. Ce travail s'intéresse à un processus d'extraction automatique de la tache urbaine fondé sur la fusion tardive de classifications calculées respectivement à partir d'images satellitaires Sentinel-2 et SPOT-6/7. Ces deux sources sont d'abord classées indépendamment selon 5 classes, respectivement par forêts aléatoires et réseaux de neurones convolutifs. Les résultats sont alors fusionnés afin d'extraire les bâtiments le plus finement possible. Cette étape de fusion inclut une fusion au niveau pixellaire suivie d'une étape de régularisation spatiale intégrant un terme lié au contraste de l'image. Le résultat obtenu connaît ensuite une seconde fusion afin d'en déduire une tache urbaine : une mesure a priori de se trouver en zone urbaine est calculée à partir des objets bâtiments détectés précédemment et est fusionnée avec une classification binaire dérivée de la classification originale des données Sentinel-2.
Style APA, Harvard, Vancouver, ISO itp.
6

Piraux, M., i A. Bruylants. "Méthode Spectrographique de Détection des Méthylènes Actifs et Synthèse de Quelques Dérivés Styryliques VIII. les Dérivés Chlorés du Nitrile Phénylacétique". Bulletin des Sociétés Chimiques Belges 68, nr 7-9 (1.09.2010): 491–503. http://dx.doi.org/10.1002/bscb.19590680707.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
7

Pandard, P., i P. Vasseur. "Biocapteurs pour le contrôle de la toxicité des eaux : application des bioélectrodes algales". Revue des sciences de l'eau 5, nr 3 (12.04.2005): 445–61. http://dx.doi.org/10.7202/705141ar.

Pełny tekst źródła
Streszczenie:
L'amélioration de la qualité de l'environnement passe par la réalisation de contrôles de toxicité in situ et en continu des sources de pollution ou des milieux contaminés, à l'aide de systèmes automatisés à réponse rapide. Les systèmes donnant une réponse en temps réel permettent d'intervenir immédiatement à la source, d'interrompre le rejet d'un flux toxique et de prévenir ainsi les accidents de pollution. Ce type de stratégie ne peut être développé qu'au moyen de biocapteurs : les méthodes d'essais conventionnelles n'autorisent que des contrôles de toxicité épisodiques, en laboratoire, effectués dans des conditions statiques quelque peu éloignées des conditions dynamiques. Nous nous sommes intéressés à la mesure de l'activité photosynthétique d'algues unicellulaires immobilisées. La photosynthèse induite par des stimuli lumineux est en effet un processus dont la réponse est immédiate et aisément mesurable à l'aide de transducteurs électrochimiques. Il apparaît donc intéressant d'utiliser ces réactions photosynthétiques pour la détection des polluants. Deux dispositifs mesurant l'activité photosynthétique d'algues unicellulaires ont été testés. Le premier dispositif mesure le transfert d'électrons le long de la chaîne photosynthétique lors d'une illumination des micro-organismes. Le second système permet de quantifier la production d'oxygène résultant de cette excitation lumineuse. La mesure du transfert d'électrons photosynthétiques nécessite l'addition d'une substance oxydo-réductible (médiateur) dans le milieu pour capter ces électrons. De la série de médiateurs testés, seuls les dérivés à caractère lipophile (2,6-diméthylbenzoquinone et p-benzoquinone) ont permis de mesurer un transfert d'électrons. Toutefois la durée de vie de ce biocapteur s'est révélée limitée à moins de 24 heures, ce qui exclut toute utilisation en continu. Le second dispositif développé présente en revanche une longévité d'une semaine, ce qui le rend intéressant en vue d'une utilisation in situ. Les performances de ce capteur à oxygène ont été testées sur des produits de type herbicides, cyanures, métaux et comparées aux valeurs obtenues à l'aide de tests algues classiques ou de méthodes de détection rapide de la toxicité.
Style APA, Harvard, Vancouver, ISO itp.
8

Jerumanis, S., i A. Bruylants. "Méthode Spectrographique de Détection des Méthylènes Actifs Et Synthèse de Quelques Dérivés Styryliques et Cyanostilbéniques. IX. Les Dérivés Fluores du Nitrile Phénylacétique". Bulletin des Sociétés Chimiques Belges 69, nr 5-6 (1.09.2010): 312–22. http://dx.doi.org/10.1002/bscb.19600690506.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Champredon, David, Aamir Fazil i Nicholas H. Ogden. "Méthodes simples de modélisation mathématique pour évaluer le risque de transmission du SRAS-CoV-2 pendant les rassemblements". Relevé des maladies transmissibles au Canada 47, nr 04 (7.05.2021): 201–12. http://dx.doi.org/10.14745/ccdr.v47i04a02f.

Pełny tekst źródła
Streszczenie:
Contexte : Les rassemblements peuvent contribuer de manière significative à la propagation du coronavirus du syndrome respiratoire aigu sévère 2 (SRAS-CoV-2). C’est pourquoi les interventions de santé publique ont cherché à limiter les rassemblements non répétés ou récurrents pour enrayer la pandémie de maladie à coronavirus 2019 (COVID 19). Malheureusement, l’éventail des différents types de rassemblements ne permet pas de donner des directives précises pour fixer des paramètres limitatifs (e.g. la taille totale du rassemblement, le nombre de cohortes, le degré de distanciation physique). Méthodes : Nous avons utilisé un cadre de modélisation générique basé sur les principes fondamentaux de probabilité pour dériver des formules simples permettant d’évaluer les risques d’introduction et de transmission liés aux rassemblements ainsi que l’efficacité potentielle de certaines stratégies de dépistage pour atténuer ces risques. Résultats : Le risque d’introduction peut être évalué de manière générale en fonction de la prévalence de la population et de la taille du rassemblement, tandis que le risque de transmission au cours d’un rassemblement dépend principalement de la taille du rassemblement. Pour les rassemblements récurrents, la structure de la cohorte n’a pas d’effet significatif sur la transmission entre cohortes. Les stratégies de test peuvent atténuer les risques, mais la fréquence et la performance des tests permettent d’établir un équilibre entre la détection et les faux positifs. Conclusion : La généralité du cadre de modélisation utilisé ici permet de démêler les différents facteurs des risques de transmission au cours des rassemblements. Ce cadre pourra éclairer la prise de décisions en matière de santé publique.
Style APA, Harvard, Vancouver, ISO itp.
10

Poveda, J. D. "Le point sur les méthodes de détection et d'identification des mycobactéries dérivées de la biologie moléculaire". Revue Française des Laboratoires 1995, nr 273 (luty 1995): 66–71. http://dx.doi.org/10.1016/s0338-9898(95)80202-9.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.

Rozprawy doktorskie na temat "Détection de dérive"

1

Kassab, Randa. "Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'information changeant au cours du temps". Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10027/document.

Pełny tekst źródła
Streszczenie:
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps. L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données. Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples
Many applications produce and receive continuous, unlimited, and high-speed data streams. This raises obvious problems of storage, treatment and analysis of data, which are only just beginning to be treated in the domain of data streams. On the one hand, it is a question of treating data streams on the fly without having to memorize all the data. On the other hand, it is also a question of analyzing, in a simultaneous and concurrent manner, the regularities inherent in the data stream as well as the novelties, exceptions, or changes occurring in this stream over time. The main contribution of this thesis concerns the development of a new machine learning approach - called ILoNDF - which is based on novelty detection principle. The learning of this model is, contrary to that of its former self, driven not only by the novelty part in the input data but also by the data itself. Thereby, ILoNDF can continuously extract new knowledge relating to the relative frequencies of the data and their variables. This makes it more robust against noise. Being operated in an on-line mode without repeated training, ILoNDF can further address the primary challenges for managing data streams. Firstly, we focus on the study of ILoNDF's behavior for one-class classification when dealing with high-dimensional noisy data. This study enabled us to highlight the pure learning capacities of ILoNDF with respect to the key classification methods suggested until now. Next, we are particularly involved in the adaptation of ILoNDF to the specific context of information filtering. Our goal is to set up user-oriented filtering strategies rather than system-oriented in following two types of directions. The first direction concerns user modeling relying on the model ILoNDF. This provides a new way of looking at user's need in terms of specificity, exhaustivity and contradictory profile-contributing criteria. These criteria go on to estimate the relative importance the user might attach to precision and recall. The filtering threshold can then be adjusted taking into account this knowledge about user's need. The second direction, complementary to the first one, concerns the refinement of ILoNDF's functionality in order to confer it the capacity of tracking drifting user's need over time. Finally, we consider the generalization of our previous work to the case where streaming data can be divided into multiple classes
Style APA, Harvard, Vancouver, ISO itp.
2

Zoubeirou, A. Mayaki Mansour. "Méthodes d'apprentissage profond pour la détection d'anomalies et de changement de régimes : application à la maintenance prédictive dans des systèmes embarqués". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4010.

Pełny tekst źródła
Streszczenie:
Dans le contexte de l'Industrie 4.0 et de l'Internet des Objets (IoT), la maintenance prédictive est devenue cruciale pour optimiser la performance et la durée de vie des dispositifs et équipements électroniques. Cette approche, qui repose sur une analyse extensive des données, est basée sur deux concepts essentiels : la détection d'anomalies et la détection de dérive.La détection d'anomalies est essentielle pour identifier les écarts par rapport aux normes établies, signalant des problèmes potentiels tels que les dysfonctionnements des équipements. La détection de dérive, en revanche, suit les changements dans les distributions de données au fil du temps, abordant la "dérive conceptuelle" pour maintenir la pertinence des modèles prédictifs dans des systèmes industriels en évolution. Cette thèse souligne non seulement la relation synergique entre ces techniques, mais met également en lumière leur impact collectif dans les stratégies de maintenance proactive.Nous abordons les défis de la maintenance prédictive tels que la qualité des données, l'étiquetage, les complexités des systèmes industriels, les nuances de la détection de dérive et les exigences du traitement en temps réel.Une partie importante de cette recherche se concentrera sur la manière d'adapter et d'utiliser ces techniques dans le contexte des systèmes embarqués.Les contributions de ce travail sont à la fois théoriques et appliquées, s'étendant aux économies de coûts, à la réduction de l'impact environnemental et s'alignant sur les avancées de l'Industrie 4.0. La maintenance prédictive est positionnée comme un élément clé de la nouvelle ère d'efficacité et de durabilité industrielle.Cette étude introduit de nouvelles méthodes utilisant des techniques statistiques et d'apprentissage automatique, efficaces dans diverses applications industrielles
In the context of Industry 4.0 and the Internet of Things (IoT), predictive maintenance has become vital for optimizing the performance and lifespan of electronic devices and equipment. This approach, reliant on extensive data analysis, stands on two pillars: anomaly detection and drift detection. Anomaly detection plays a crucial role in identifying deviations from established norms, thereby flagging potential issues such as equipment malfunctions.Drift detection, on the other hand, monitors changes in data distributions over time. It addresses "concept drift" to ensure the continued relevance of predictive models in evolving industrial systems. This thesis highlights the synergistic relationship between these two techniques, demonstrating their collective impact in proactive maintenance strategies. We address various challenges in predictive maintenance such as data quality, labeling, complexities of industrial systems, the nuances of drift detection and the demands of real-time processing. A significant part of this research will focus on how to adapt and use these techniques in the context of embedded systems. The significance of this work extends to cost savings, environmental impact reduction and aligning with the advancements in Industry 4.0, positioning predictive maintenance as a key component in the new era of industrial efficiency and sustainability.This study introduces novel methods employing statistical and machine learning techniques, validated in various industrial settings like modern manufacturing plants. These methods, both theoretical and applied, effectively address the challenges of predictive maintenance
Style APA, Harvard, Vancouver, ISO itp.
3

Hadouni, Doha. "Détection de rupture hors ligne sur des processus dépendants". Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC098.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
4

Kassab, Randa. "Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'informations changeant au cours du temps". Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00402644.

Pełny tekst źródła
Streszczenie:
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps.

L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données.

Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples.
Style APA, Harvard, Vancouver, ISO itp.
5

Caubet, Fabien. "Détection d'un objet immergé dans un fluide". Phd thesis, Université de Pau et des Pays de l'Adour, 2012. http://tel.archives-ouvertes.fr/tel-00716902.

Pełny tekst źródła
Streszczenie:
Cette thèse s'inscrit dans le domaine des mathématiques appelé optimisation de formes. Plus précisément, nous étudions ici un problème inverse de type détection à l'aide du calcul de forme et de l'analyse asymptotique : l'objectif est de localiser un objet immergé dans un fluide visqueux, incompressible et stationnaire. Les questions principales qui ont motivé ce travail sont les suivantes : peut-on détecter un objet immergé dans un fluide à partir d'une mesure effectuée à la surface du fluide ? Peut-on reconstruire numériquement cet objet, i.e. approcher sa position et sa forme, à partir de cette mesure ? Peut-on connaître le nombre d'objets présents dans le fluide en utilisant cette mesure ? Pour répondre à ces questions, le problème inverse est analysé comme un problème d'optimisation en minimisant une fonctionnelle coût, la variable étant la forme inconnue. Deux différentes approches sont considérées dans ce travail : l'optimisation géométrique (à l'aide des dérivées de forme et du gradient de forme) et l'optimisation topologique (à l'aide d'un développement asymptotique et du "gradient" topologique). Dans un premier temps, un cadre mathématique est mis en place pour démontrer l'existence des dérivées de forme d'ordre un et deux pour les problèmes de détection d'inclusions. Le problème inverse considéré est ensuite analysé à l'aide de l'optimisation géométrique de forme : un résultat d'identifiabilité est montré, le gradient de forme de plusieurs types de fonctionnelles de forme est caractérisé et l'instabilité de ce problème inverse est enfin démontrée. Ces résultats théoriques sont alors utilisés pour reconstruire numériquement des objets immergés dans un fluide à l'aide d'un algorithme de gradient régularisé par une méthode de projection. Enfin, la localisation de petites inclusions dans un fluide est étudiée à l'aide de l'optimisation topologique pour une fonctionnelle de forme de Kohn-Vogelius. L'expression théorique de la dérivée topologique est finalement utilisée pour déterminer numériquement le nombre et la localisation de petits obstacles immergés dans un fluide à l'aide d'un algorithme de gradient topologique. Les limites effectives de cette approche sont explorées : la pénétration reste faible dans ce problème stationnaire.
Style APA, Harvard, Vancouver, ISO itp.
6

Caubet, Fabien. "Détection d’un objet immergé dans un fluide". Thesis, Pau, 2012. http://www.theses.fr/2012PAUU3006/document.

Pełny tekst źródła
Streszczenie:
Cette thèse s’inscrit dans le domaine des mathématiques appelé optimisation de formes. Plus précisément, nous étudions ici un problème inverse de détection à l’aide du calcul de forme et de l’analyse asymptotique. L’objectif est de localiser un objet immergé dans un fluide visqueux, incompressible et stationnaire. Les questions principales qui ont motivé ce travail sont les suivantes :– peut-on détecter un objet immergé dans un fluide à partir d’une mesure effectuée à la surface ?– peut-on reconstruire numériquement cet objet, i.e. approcher sa position et sa forme, à partir de cette mesure ?– peut-on connaître le nombre d’objets présents dans le fluide en utilisant cette mesure ?Les résultats obtenus sont décrits dans les cinq chapitres de cette thèse :– le premier met en place un cadre mathématique pour démontrer l’existence des dérivées de forme d’ordre un et deux pour les problèmes de détection d’inclusions ;– le deuxième analyse le problème de détection à l’aide de l’optimisation géométrique de forme : un résultat d’identifiabilité est montré, le gradient de forme de plusieurs types de fonctionnelles de forme est caractérisé et l’instabilité de ce problème inverse est enfin démontrée ;– le chapitre 3 utilise nos résultats théoriques pour reconstruire numériquement des objets immergés dans un fluide à l’aide d’un algorithme de gradient de forme ;– le chapitre 4 analyse la localisation de petites inclusions dans un fluide à l’aide de l’optimisation topologique de forme : le gradient topologique d’une fonctionnelle de forme de Kohn-Vogelius est caractérisé ;– le dernier chapitre utilise cette dernière expression théorique pour déterminer numériquement le nombre et la localisation de petits obstacles immergés dans un fluide à l’aide d’un algorithme de gradient topologique
This dissertation takes place in the mathematic field called shape optimization. More precisely, we focus on a detecting inverse problem using shape calculus and asymptotic analysis. The aim is to localize an object immersed in a viscous, incompressible and stationary fluid. This work was motivated by the following main questions:– can we localize an obstacle immersed in a fluid from a boundary measurement?– can we reconstruct numerically this object, i.e. be close to its localization and its shape, from this measure?– can we know how many objects are included in the fluid using this measure?The results are described in the five chapters of the thesis:– the first one gives a mathematical framework in order to prove the existence of the shape derivatives oforder one and two in the frame of the detection of inclusions;– the second one analyzes the detection problem using geometric shape optimization: an identifiabilityresult is proved, the shape gradient of several shape functionals is characterized and the instability of thisinverse problem is proved;– the chapter 3 uses our theoretical results in order to reconstruct numerically some objets immersed in a fluid using a shape gradient algorithm;– the fourth chapter analyzes the detection of small inclusions in a fluid using the topological shape optimization : the topological gradient of a Kohn-Vogelius shape functional is characterized;– the last chapter uses this theoretical expression in order to determine numerically the number and the location of some small obstacles immersed in a fluid using a topological gradient algorithm
Style APA, Harvard, Vancouver, ISO itp.
7

Kanso, Hussein. "Nouveaux outils de détection d'estrogenes dans les eaux : synthèse de dérives électroactifs et développement d'immunocapteurs". Perpignan, 2014. http://www.theses.fr/2013PERP1246.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
8

Lebègue, Nathalie. "Radicaux libres dérivés de l'oxygène et antioxydants : méthodes de détection, approche biologique et environnementale". Paris 5, 1999. http://www.theses.fr/1999PA05P109.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Fhima, Mehdi. "Détection de ruptures et mouvement Brownien multifractionnaire". Thesis, Clermont-Ferrand 2, 2011. http://www.theses.fr/2011CLF22197.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous développons une nouvelle méthode de détection de ruptures "Off-line", appelée Dérivée Filtrée avec p-value, sur des paramètres d'une suite de variables aléatoires indépendantes, puis sur le paramètre de Hurst d'un mouvement Brownien multifractionnaire. Cette thèse est composée de trois articles. Dans un premier article paru dans Sequential Analysis nous posons les bases de la méthode Dérivée Filtrée avec p-value (FDpV) en l'appliquant à une suite de variables aléatoires indépendantes. La méthode a une complexité linéaire en temps et en mémoire. Elle est constituée de deux étapes. La première étape utilisant la méthode Dérivée Filtrée détecte les bons instants de ruptures, mais également certaines fausses alarmes. La deuxième étape attribue une p-value à chaque instant de rupture potentiel détecté à la première étape, et élimine les instants dont la p-value est inférieure à un certain seuil critique. Nous démontrons les propriétés asymptotiques nécessaires à la calibration de la méthode. L'efficacité de la méthode a été prouvé tant sur des données simulées que sur des données réelles. Ensuite, nous nous sommes attaqués à l'application de la méthode pour la détection de ruptures sur le paramètre de Hurst d'un mouvement Brownien multifractionnaire. Cela s'est fait en deux phases. La première phase a fait l'objet d'un article à paraitre dans ESAIM P&S où nous avons établi un Théorème Central Limite pour l'estimateur du paramètre de Hurst appelé Increment Ratio Statistic (IRS). Puis, nous avons proposé une version localisée de l'IRS et démontré un TCL local pour estimer la fonction de Hurst d'un mouvement Brownien multifractionnaire. Les preuves sont intuitives et se distinguent par leur simplicité. Elles s'appuient sur le théorème de Breuer-Major et une stratégie originale appelée "freezing of time". La deuxième phase repose sur un nouvel article soumis pour publication. Nous adaptons la méthode FDpV pour détecter des ruptures sur l'indice de Hurst d'un mouvement Brownien fractionnaire constant par morceaux. La statistique sous-jacent de l'algorithme FDpV est un nouvel estimateur de l'indice de Hurst, appelé Increment Zero-Crossing Statistic (IZCS) qui est une variante de l'IRS. La combinaison des méthodes FDpV + IZCS constitue une procédure efficace et rapide avec une complexité linéaire en temps et en mémoire
This Ph.D dissertation deals with "Off-line" detection of change points on parameters of time series of independent random variables, and in the Hurst parameter of multifrcational Brownian motion. It consists of three articles. In the first paper, published in Sequential Analysis, we set the cornerstones of the Filtered Derivative with p-Value method for the detection of change point on parameters of independent random variables. This method has linear time and memory complexities, with respect to the size of the series. It consists of two steps. The first step is based on Filtered Derivative method which detects the right change points as well as the false ones. We improve the Filtered Derivative method by adding a second step in which we compute the p-values associated to every single potential change point. Then we eliminate false alarms, i.e. the change points which have p-value smaller than a given critical level. We showed asymptotic properties needed for the calibration of the algorithm. The effectiveness of the method has been proved both on simulated data and on real data. Then we moved to the application of the method for the detection of change point on the Hurst parameter of multifractional Brownian motion. This was done in two phases. In the first phase, a paper is to be published in ESAIM P&S where we investigated the Central Limit Theorem of the Increment Ratio Statistic of a multifractional Brownian motion, leading to a CLT for the time varying Hurst index. The proofs are quite simple relying on Breuer-Major theorems and an original freezing of time strategy.The second phase relies on a new paper submitted for publication. We adapted the FDpV method to detect change points on the Hurst parameter of piecewise fractional Brownian motion. The underlying statistics of the FDpV technology is a new statistic estimator for Hurst index, so-called Increment Zero-Crossing Statistic (IZCS) which is a variation of IRS. Both FDpV and IZCS are methods with linear time and memory complexities, with respect to the size of the series
Style APA, Harvard, Vancouver, ISO itp.
10

Kharrat, Dhouha. "Commande tolérante aux défauts des systèmes non linéaires : application à la dynamique du véhicule". Electronic Thesis or Diss., Amiens, 2019. http://www.theses.fr/2019AMIE0012.

Pełny tekst źródła
Streszczenie:
Le travail présenté dans ce mémoire concerne l'élaboration d'approches de commande tolérante aux défauts (FTC) ainsi que l'estimation simultanée des états du système et de défauts capteurs et actionneurs pour différentes classes de systèmes. Les conditions de synthèse décrites dans ce manuscrit améliorent et permettent de réduire le conservatisme des résultats existants dans la littérature. Dans une première étape, nous nous sommes intéressés à la synthèse de la commande FTC à base d'observateur pour les systèmes T-S descripteurs à retard en présence de défauts actionneurs. Les conditions de synthèse dépendantes de la taille du retard, à la fois de l'observateur et du contrôleur sont résolues en une seule étape. Dans une deuxième étape, nous avons proposé une stratégie d'estimation des défauts et de la commande FTC pour les systèmes descripteurs flous de type T-S en présence simultanée de défauts actionneurs et capteurs ainsi que des perturbations extérieures. La troisième et dernière partie de ce travail concerne la synthèse d'une loi de commande robuste FTC basée sur un observateur adaptatif descripteur pour la dynamique du véhicule. La méthode proposée offre des conditions de LMIs moins restrictives que celles établies dans la littérature. L'approche proposée est validée en simulation sur le logiciel Carsim comme étant une application de la dynamique dérive-lacet-roulis du véhicule en présence de défauts capteurs, actionneurs et de perturbations extérieures
This work deals with the development of new technologies of fault tolerant control (FTC), state and sensor/actuator faults estimation for different classes of systems. The algorithm described in this manuscript improve and reduce the conservatism of existing results in the literature. Firstly, we were interested in the synthesis of adaptive observer-based FTC for Takagi-Sugeno (T-S) descriptor systems with time-delay in presence of actuator faults. The analysis and design conditions of observer-based FTC are formulated into a set of delay-dependent linear matrix inequalities (LMIs) which can be solved in a single step. Then, an adaptive observer-based FTC strategy is proposed for both T-S descriptor systems and T-S fuzzy systems subject to simultaneous actuator and sensor faults under external disturbances. The last part of this work concerns the issue of the lateral vehicle and rollover dynamics which is approximated by the T-S fuzzy model under the influence of actuator and sensor faults with external disturbances. Using the cone complementarity linearization algorithm, the proposed method offers less restrictive LMI conditions than those established in the literature. The proposed approach is validated in simulation on the Carsim software as an application of the dynamics of the vehicle in presence of sensor, actuator faults and external disturbances
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii