To see the other types of publications on this topic, follow the link: Test à données aléatoires.

Dissertations / Theses on the topic 'Test à données aléatoires'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Test à données aléatoires.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Korneva, Alexandrina. "The Cubicle Fuzzy Loop : A Testing Framework for Cubicle." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG095.

Full text
Abstract:
L'objectif de cette thèse est d'intégrer une technique de test dans le model checker Cubicle. Pour cela, nous avons étendu Cubicle avec une boucle de Fuzzing (appelée Cubicle Fuzzy Loop - CFL). Cette nouvelle fonctionnalité remplit deux fonctions principales.Tout d'abord, elle sert d'oracle pour l'algorithme de génération d'invariants de Cubicle. Ce dernier, basé sur une exploration en avant de l'ensemble des états atteignables, était fortement limité par ses heuristiques lorsqu'elles sont appliquées à des modèles fortementconcurrents. CFL apporte une nouvelle manière plus efficace d'explorer ces modèles, en particulier il permet de visiter beaucoup plus d'états pertinents.Son deuxième objectif est de détecter rapidement et efficacement les problèmes et les vulnérabilités dans les modèles de toutes tailles, ainsi que de capturer les deadlocks.L'intégration de CFL nous a également permis d'augmenter l'expressivité du langage d'entrée de Cubicle, avec l'inclusion de nouvelles primitives pour manipuler des threads (verrous, sémaphores, etc.).Enfin, nous avons construit un cadre de test autour de Cubicle et de CFL avec un interpréteur interactif, utile pour le débogage, le prototypage et l'exécution pas à pas des modèles. Ce nouveau système a été appliqué avec succès sur une étude de cas d'un algorithme deconsensus distribué pour blockchains
The goal of this thesis is to integrate a testing technique into the Cubicle model checker. To do this, we extended Cubicle with a Fuzzing loop (called the Cubicle Fuzzy Loop - CFL). This new feature serves two primary purposes.Firstly, it acts as an oracle for Cubicle's invariant generation algorithm. The existing algorithm, which is based on a forward exploration of reachable states, was significantly limited by its heuristics when applied to highly concurrent models. CFL introduces amore efficient way to explore these models, visiting a larger number of relevant states.Its second objective is to quickly and efficiently detect issues and vulnerabilities in models of all sizes, as well as detect deadlocks.The integration of CFL has also enabled us to enhance the expressiveness of Cubicle's input language, including new primitives for manipulating threads (locks, semaphores, etc.).Lastly, we built a testing framework around Cubicle and CFL with an interactive interpreter, which is useful for debugging, prototyping, and step-by-step execution of models. This new system has been successfully applied in a case study of a distributed consensus algorithm for blockchains
APA, Harvard, Vancouver, ISO, and other styles
2

Segalas, Corentin. "Inférence dans les modèles à changement de pente aléatoire : application au déclin cognitif pré-démence." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0298/document.

Full text
Abstract:
Le but de ce travail a été de proposer des méthodes d'inférence pour décrire l'histoire naturelle de la phase pré-diagnostic de la démence. Durant celle-ci, qui dure une quinzaine d'années, les trajectoires de déclin cognitif sont non linéaires et hétérogènes entre les sujets. Pour ces raisons, nous avons choisi un modèle à changement de pente aléatoire pour les décrire. Une première partie de ce travail a consisté à proposer une procédure de test pour l'existence d'un changement de pente aléatoire. En effet, dans certaines sous-populations, le déclin cognitif semble lisse et la question de l'existence même d'un changement de pente se pose. Cette question présente un défi méthodologique en raison de la non-identifiabilité de certains paramètres sous l'hypothèse nulle rendant les tests standards inutiles. Nous avons proposé un supremum score test pour répondre à cette question. Une seconde partie du travail concernait l'ordre temporel du temps de changement entre plusieurs marqueurs. La démence est une maladie multidimensionnelle et plusieurs dimensions de la cognition sont affectées. Des schémas hypothétiques existent pour décrire l'histoire naturelle de la démence mais n'ont pas été éprouvés sur données réelles. Comparer le temps de changement de différents marqueurs mesurant différentes fonctions cognitives permet d'éclairer ces hypothèses. Dans cet esprit, nous proposons un modèle bivarié à changement de pente aléatoire permettant de comparer les temps de changement de deux marqueurs, potentiellement non gaussiens. Les méthodes proposées ont été évaluées sur simulations et appliquées sur des données issues de deux cohortes françaises. Enfin, nous discutons les limites de ces deux modèles qui se concentrent sur une accélération tardive du déclin cognitif précédant le diagnostic de démence et nous proposons un modèle alternatif qui estime plutôt une date de décrochage entre cas et non-cas
The aim of this work was to propose inferential methods to describe natural history of the pre-diagnosis phase of dementia. During this phase, which can last around fifteen years, the cognitive decline trajectories are nonlinear and heterogeneous between subjects. Because heterogeneity and nonlinearity, we chose a random changepoint mixed model to describe these trajectories. A first part of this work was to propose a testing procedure to assess the existence of a random changepoint. Indeed, in some subpopulations, the cognitive decline seems smooth and the question of the existence of a changepoint itself araises. This question is methodologically challenging because of identifiability issues on some parameters under the null hypothesis that makes standard tests useless. We proposed a supremum score test to answer this question. A second part of this work was the comparison of the temporal order of different markers changepoint. Dementia is a multidimensional disease where different dimensions of the cognition are affected. Hypothetic cascade models exist for describing this natural history but have not been evaluated on real data. Comparing change over time of different markers measuring different cognitive functions gives precious insight on this hypothesis. In this spirit, we propose a bivariate random changepoint model allowing proper comparison of the time of change of two cognitive markers, potentially non Gaussian. The proposed methodologies were evaluated on simulation studies and applied on real data from two French cohorts. Finally, we discussed the limitations of the two models we used that focused on the late acceleration of the cognitive decline before dementia diagnosis and we proposed an alternative model that estimates the time of differentiation between cases and non-cases
APA, Harvard, Vancouver, ISO, and other styles
3

Bonakdar, Sakhi Omid. "Segmentation of heterogeneous document images : an approach based on machine learning, connected components analysis, and texture analysis." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00912566.

Full text
Abstract:
Document page segmentation is one of the most crucial steps in document image analysis. It ideally aims to explain the full structure of any document page, distinguishing text zones, graphics, photographs, halftones, figures, tables, etc. Although to date, there have been made several attempts of achieving correct page segmentation results, there are still many difficulties. The leader of the project in the framework of which this PhD work has been funded (*) uses a complete processing chain in which page segmentation mistakes are manually corrected by human operators. Aside of the costs it represents, this demands tuning of a large number of parameters; moreover, some segmentation mistakes sometimes escape the vigilance of the operators. Current automated page segmentation methods are well accepted for clean printed documents; but, they often fail to separate regions in handwritten documents when the document layout structure is loosely defined or when side notes are present inside the page. Moreover, tables and advertisements bring additional challenges for region segmentation algorithms. Our method addresses these problems. The method is divided into four parts:1. Unlike most of popular page segmentation methods, we first separate text and graphics components of the page using a boosted decision tree classifier.2. The separated text and graphics components are used among other features to separate columns of text in a two-dimensional conditional random fields framework.3. A text line detection method, based on piecewise projection profiles is then applied to detect text lines with respect to text region boundaries.4. Finally, a new paragraph detection method, which is trained on the common models of paragraphs, is applied on text lines to find paragraphs based on geometric appearance of text lines and their indentations. Our contribution over existing work lies in essence in the use, or adaptation, of algorithms borrowed from machine learning literature, to solve difficult cases. Indeed, we demonstrate a number of improvements : on separating text columns when one is situated very close to the other; on preventing the contents of a cell in a table to be merged with the contents of other adjacent cells; on preventing regions inside a frame to be merged with other text regions around, especially side notes, even when the latter are written using a font similar to that the text body. Quantitative assessment, and comparison of the performances of our method with competitive algorithms using widely acknowledged metrics and evaluation methodologies, is also provided to a large extend.(*) This PhD thesis has been funded by Conseil Général de Seine-Saint-Denis, through the FUI6 project Demat-Factory, lead by Safig SA
APA, Harvard, Vancouver, ISO, and other styles
4

Ebeido, Kebieh Amira. "Test d'hypothèses et modèles aléatoires autorégressifs." Paris 2, 1987. http://www.theses.fr/1987PA020091.

Full text
Abstract:
Le travail presente ici concerne l'estimateurs et les tests utilises sur des modeles autoregressifs construits a partir de l'observation d'une serie temporelle. La serie traitee en elle-meme, independamment d'autres series avec lesquelles elle pourrait etre en relation. On a distingue trois parties essentielles : la premiere s'attache aux modeles autoregressifs du premier ordre. Les methodes d'estimation et les proprietes des estimateurs obtenues sont discutees. Deux hypotheses essentielles sont testees :. La premiere hypothese concerne le parametre autoregressif : processus stable avec b <1; processus explosif avec b >1; processus a cheminement aleatoire avec b = 1. . La seconde hypothese concerne le terme aleatoire et : les et independants ou non. La deuxieme partie s'attache aux modeles autoregressifs - moyennes mobiles (arma); les methodes d'estimation et les tests concernant l'adequation du modele identifie et estime sont analyses. La troisieme se compose enfin de deux applications pratiques : l'une porte sur le cours des actions industrielles aux etats-unis pendant ces douze dernieres annees, (de 1974 a 1985), ce processus qui est identifie comme un processus autoregressif du premier ordre suit un cheminement aleatoire. L'autre application concerne la production d'automobiles "voitures de tourisme" au japon pour la periode allant de janvier 1974 a juin 1986. Apres identification et tests le pro- cessus apparait comme un arma (2,16).
APA, Harvard, Vancouver, ISO, and other styles
5

Aboa, Yapo Jean-Pascal. "Méthodes de segmentation sur un tableau de variables aléatoires." Paris 9, 2002. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2002PA090042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Gardy, Danièle. "Bases de données, allocations aléatoires : quelques analyses de performances." Paris 11, 1989. http://www.theses.fr/1989PA112221.

Full text
Abstract:
Cette thèse est consacrée à l'étude de divers paramètres des tiques, entre autres des bases de données, qui ont pour point commun de se prêter naturellement à une modélisation en termes de phénomènes d'allocation aléatoire. Leur étude utilise les techniques classiques de l'analyse en moyenne des algorithmes, à savoir les séries génératrices et l'approximation asymptotique de leurs cœfficients. Le problème initialement posé concerne l'étude des tailles de relations dérivées dans l’algèbre relationnelle. Il admet une modélisation en termes de problèmes probabilistes d’allocation aléatoire, du type "modèles d'urnes". Nous donnons des résultats sur les lois de probabilité conditionnelles des tailles de relations obtenues par application des opérateurs de projection et jointure à une ou plusieurs relations de taille connue. En particulier, nous obtenons divers théorèmes sur les distributions limites de ces tailles, et montrons que, sous des hypothèses assez peu contraignantes, ces distributions limites sont fréquemment normales. Une extension naturelle est ensuite de regarder comment implémenter les relations "logiques", définies à un niveau abstrait ; nous étudions ici les arbres multi-attributs ou doublement chaînés. Les mêmes méthodes permettent enfin de traiter certains phénomènes d'allocation aléatoire de caractère plus dynamique, par exemple le classique "paradoxe des anniversaires" (qui modélise la fréquence d'apparition des collisions dans une table de hachage) ou l'algorithme de gestion mémoire "Least Recently Used"
This thesis is devoted to the analysis of some parameters of interest for estimating the performance of computer systems, most notably database systems. The unifying features are the description of the phenomena to be studied in terms of random allocations and the systematic use of methods from the average-case analysis of algorithms. We associate a generating function with each parameter of interest, which we use to derive an asymptotic expression of this parameter. The main problem studied in this work is the estimation of the sizes of derived relations in a relational database framework. We show that this is closely related to the so-called "occupancy problem" in urn models, a classical tool of discrete probability theory. We characterize the conditional distribution of the size of a relation derived from relations whose sizes are known, and give conditions which ensure the a. Symptotic normality of the limiting distribution. We next study the implementation of "logical" relations by multi-attribute or doubly chained trees, for which we give results on the complexity of a random orthogonal range query. Finally, we study some "dynamic" random allocation phenomena, such as the birthday problem, which models the occurrence of collisions in hashing, and a model of the Least Recently Used cache memory algorithm
APA, Harvard, Vancouver, ISO, and other styles
7

Caron, Maxime. "Données confidentielles : génération de jeux de données synthétisés par forêts aléatoires pour des variables catégoriques." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25935.

Full text
Abstract:
La confidentialité des données est devenue primordiale en statistique. Une méthode souvent utilisée pour diminuer le risque de réidentification est la génération de jeux de données partiellement synthétiques. On explique le concept de jeux de données synthétiques, et on décrit une méthode basée sur les forêts aléatoires pour traiter les variables catégoriques. On s’intéresse à la formule qui permet de faire de l’inférence avec plusieurs jeux synthétiques. On montre que l’ordre des variables à synthétiser a un impact sur l’estimation de la variance des estimateurs. On propose une variante de l’algorithme inspirée du concept de confidentialité différentielle. On montre que dans ce cas, on ne peut estimer adéquatement ni un coefficient de régression, ni sa variance. On montre l’impact de l’utilisation de jeux synthétiques sur des modèles d’équations structurelles. On conclut que les jeux synthétiques ne changent pratiquement pas les coefficients entre les variables latentes et les variables mesurées.
Confidential data are very common in statistics nowadays. One way to treat them is to create partially synthetic datasets for data sharing. We will present an algorithm based on random forest to generate such datasets for categorical variables. We are interested by the formula used to make inference from multiple synthetic dataset. We show that the order of the synthesis has an impact on the estimation of the variance with the formula. We propose a variant of the algorithm inspired by differential privacy, and show that we are then not able to estimate a regression coefficient nor its variance. We show the impact of synthetic datasets on structural equations modeling. One conclusion is that the synthetic dataset does not really affect the coefficients between latent variables and measured variables.
APA, Harvard, Vancouver, ISO, and other styles
8

Chevalier, Cyril. "Contribution au test intégré : générateurs de vecteurs de test mixtes déterministes et pseudo-aléatoires." Montpellier 2, 1994. http://www.theses.fr/1994MON20141.

Full text
Abstract:
Le test integre est une technique de conception en vue du test qui est developpee afin de faciliter le test des circuits a tres haute echelle d'integration. L'idee principale du test integre est d'inclure dans le circuit a tester des circuits additionnels qui lui permettront de generer ses popres vecteurs de test et d'analyser ses reponses. L'objet de cette these est l'etude theorique et la realisation de structures de generation de vecteurs de test predetermines. Une architecture de generateur de vecteurs deterministes et pseudo-aleatoires resultant de transformations lineaires simples a ete proposee. Les diverses realisations experimentales demontrent la possibilite de traitement de sequences de test deterministes qui etaient jusqu'alors pratiquement irrealisables en test integre. En outre, la conjonction des deux modes de test permet d'effectuer du test integre avec une sequence de test courte et une couverture de fautes elevee. Le cout de la surface additionnelle reste modere grace a l'utilisation de vecteurs pseudo-aleatoires pour le test de la majeure partie des fautes. L'absence de restriction sur l'ordre des vecteurs permet d'envisager l'utilisation de cette architecture de generateurs sur des circuits sequentiels, ainsi que pour de nouvelles technologies ou le modele de fautes de collage ne convient pas
APA, Harvard, Vancouver, ISO, and other styles
9

Hillali, Younès. "Analyse et modélisation des données probabilistes : capacités et lois multidimensionnelles." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090015.

Full text
Abstract:
Ce travail traite de la réduction d’un tableau de données probabilistes. Nous présentons un modèle statistique qui permet de résumer les descriptions aléatoires d’une classe d’individus par rapport à toutes les variables descriptives, tout en conservant le caractère aléatoire de la description de chaque individu avec un minimum de perte d’information. Nous proposons plusieurs mesures de généralisation et de spécialisation stochastiques basées sur des opérateurs d’union ou d’intersection entre distributions de probabilité et sur des méthodes de construction de lois multi dimensionnelles à marges unidimensionnelles fixées. Nous montrons que ces mesures possèdent les mêmes propriétés que les mesures de capacité au sens de Choquet. Nous présentons également une nouvelle famille de lois multidimensionnelles paramétriques qui permet d’étendre le procédé de généralisation et de spécialisation à un tableau de données probabilistes de grande taille, dans lequel chaque individu est décrit par plusieurs variables aléatoires de dépendances quelconques. Nous proposons trois algorithmes d’estimation de ses paramètres et nous étudions leur comportement dans la pratique. A partir des mesures de généralisation et de spécialisation d’un tableau de données probabilistes, nous proposons une méthode de classification d’individus décrits par des lois de probabilité. Des éléments de recherche qui devraient permettre d’étendre ce travail à des données probabilistes plus complexes, par exemple à des tableaux de données où chaque case contient une loi multidimensionnelle, sont également présentés.
APA, Harvard, Vancouver, ISO, and other styles
10

Elhadji, Ille Gado Nassara. "Méthodes aléatoires pour l’apprentissage de données en grande dimension : application à l'apprentissage partagé." Thesis, Troyes, 2017. http://www.theses.fr/2017TROY0032.

Full text
Abstract:
Cette thèse porte sur l’étude de méthodes aléatoires pour l’apprentissage de données en grande dimension. Nous proposons d'abord une approche non supervisée consistant en l'estimation des composantes principales, lorsque la taille de l'échantillon et la dimension de l'observation tendent vers l'infini. Cette approche est basée sur les matrices aléatoires et utilise des estimateurs consistants de valeurs propres et vecteurs propres de la matrice de covariance. Ensuite, dans le cadre de l’apprentissage supervisé, nous proposons une approche qui consiste à, d'abord réduire la dimension grâce à une approximation de la matrice de données originale, et ensuite réaliser une LDA dans l’espace réduit. La réduction de dimension est basée sur l’approximation de matrices de rang faible par l’utilisation de matrices aléatoires. Un algorithme d'approximation rapide de la SVD, puis une version modifiée permettant l’approximation rapide par saut spectral sont développés. Les approches sont appliquées à des données réelles images et textes. Elles permettent, par rapport à d’autres méthodes, d’obtenir un taux d’erreur assez souvent optimal, avec un temps de calcul réduit. Enfin, dans le cadre de l’apprentissage par transfert, notre contribution consiste en l’utilisation de l'alignement des sous-espaces caractéristiques et l’approximation de matrices de rang faible par projections aléatoires. La méthode proposée est appliquée à des données de référence ; elle présente l’avantage d’être performante et adaptée à des données de grande dimension
This thesis deals with the study of random methods for learning large-scale data. Firstly, we propose an unsupervised approach consisting in the estimation of the principal components, when the sample size and the observation dimension tend towards infinity. This approach is based on random matrices and uses consistent estimators of eigenvalues and eigenvectors of the covariance matrix. Then, in the case of supervised learning, we propose an approach which consists in reducing the dimension by an approximation of the original data matrix and then realizing LDA in the reduced space. Dimension reduction is based on low–rank approximation matrices by the use of random matrices. A fast approximation algorithm of the SVD and a modified version as fast approximation by spectral gap are developed. Experiments are done with real images and text data. Compared to other methods, the proposed approaches provide an error rate that is often optimal, with a small computation time. Finally, our contribution in transfer learning consists in the use of the subspace alignment and the low-rank approximation of matrices by random projections. The proposed method is applied to data derived from benchmark database; it has the advantage of being efficient and adapted to large-scale data
APA, Harvard, Vancouver, ISO, and other styles
11

Clément, Julien. "Algorithmes, mots et textes aléatoires." Habilitation à diriger des recherches, Université de Caen, 2011. http://tel.archives-ouvertes.fr/tel-00913127.

Full text
Abstract:
Dans ce mémoire, j'examine différents aspects d'un objet simple mais omniprésent en informatique: la séquence de symboles (appelée selon le contexte mot ou chaîne de caractères). La notion de mot est au carrefour de domaines comme la théorie de l'information et la théorie des langages. S'il est simple, il reste fondamental: nous n'avons, au plus bas niveau, que cela à disposition puisqu'il arrive toujours un moment où une donnée doit être encodée en symboles stockables en mémoire. La quantité d'information croissante de données mise à disposition et qu'on peut stocker, par exemple des génomes d'individus ou des documents numérisés, justifie que les algorithmes et les structures de données qui les manipulent soient optimisés. En conséquence, les besoins d'analyse se font sentir pour guider le choix et la conception des programmes qui manipulent ces données. L'analyse en moyenne est ici particulièrement adaptée puisque les données atteignent une variété et des volumes tellement importants que c'est le cas typique qui traduit le mieux la complexité et non pas le cas le pire. Cela évidemment pose le problème de la modélisation de données qui reste encore très épineux. En effet on souhaite deux choses contradictoires: un modèle au plus près des données, qui traduise vraiment leurs spécificités, mais aussi un modèle permettant de donner des résultats, c'est-à-dire de prédire les performances (et on comprend vite que le modèle doit donc rester relativement simple pour qu'il subsiste un espoir de le traiter!). Les méthodes sont le plus souvent celles de la combinatoire analytique et font appel à un objet mathématique, les séries génératrices, pour mener les analyses à bien.
APA, Harvard, Vancouver, ISO, and other styles
12

Virazel, Arnaud. "Test intégré des circuits digitaux : analyse et génération de séquences aléatoires adjacentes." Montpellier 2, 2001. http://www.theses.fr/2001MON20094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Dhayni, Achraf. "Test intégré pseudo aléatoire pour les composants microsystèmes." Grenoble INPG, 2006. https://tel.archives-ouvertes.fr/tel-00135916.

Full text
Abstract:
L'utilisation croissante de MEMS dans des applications dont le mauvais fonctionnement aurait un impact important sur la sécurité ou la vie des personnes a accéléré le besoin de méthodes robustes de test. Les mécanismes de défaillance et les dynamiques de MEMS sont complexes et plus souvent mal compris. C'est dû à leur nature multi-physique qui les rend complexes pour la conception et le test. La fabrication en outre est compliquée par le besoin de nouvelles étapes de fabrication en particulier quand des techniques de System-in-Package (SiP) sont employées. Ces techniques d'encapsulation posent beaucoup de problèmes de test. Dans ce secteur, les techniques de BIST des circuits analogiques et mixtes ont attiré un intérêt industriel considérable pour aider à réduire les difficultés de test. Dans cette thèse nous proposons un BIST fonctionnel pseudo-aléatoire pour MEMS. Nous présentons l'utilisation des impulsions électriques pseudo-aléatoires qui ont l'avantage d'être facilement produit sur-puce. Nous montrons comment différents types de stimuli pseudo-aléatoires peuvent être exploités en vue de BIST pour les MEMS linéaires et non linéaires. En général, nous prouvons que les séquences pseudo-aléatoires à deux niveaux sont suffisantes pour examiner les MEMS linéaires et non linéaires. En outre, alors que les séquences à deux niveaux sont suffisantes pour caractériser les MEMS linéaires, nous décrivons comment l'utilisation des séquences pseudo-aléatoires à multi niveaux est nécessaire pour la caractérisation des MEMS non linéaires. La réponse de test est digitalisée en utilisant un CAN intégré et autotestable, et un circuit numérique simple vient après pour calculer des échantillons de la réponse impulsionnelle de MEMS linéaire, ou des échantillons du noyau de Volterra de MEMS non linéaire. Après, ces échantillons (appelés signature de test) sont comparés avec leurs intervalles de tolérance et finalement un signal binaire est produit par le BIST pour indiquer si le MEMS a passé où échoué le test. Nous employons les simulations Monte Carlo pour dériver les intervalles de tolérance de la signature de test. Les simulations Monte Carlo sont également employées pour former la signature de test en effectuant une analyse de sensibilité, et pour injecter les variations paramétriques pour calculer les métriques de test et optimiser les paramètres de conception du BIST pseudo-aléatoire. Nous avons appliqué le BIST pseudo-aléatoire pour des MEMS tel que les accéléromètres commercialisés et des micropoutres fabriquées au sein du Group RMS. Des résultats expérimentaux satisfaisants ont été obtenus
The growing use of MEMS in life-critical applications has accelerated the need for robust test methods. MEMS have complex failure mechanisms and device dynamics that are most often poorly understood. This is due to their multi-domain nature which makes them inherently complex for both design and test. Manufacturing is in addition complicated by the need of new fabrication steps in particular when System-in-Package (SiP) techniques are used. These packaging techniques enable to have a module that contains highly heterogeneous IP blocks or chips, giving important benefits in terms of time-to-market shortening and miniaturization. However, this poses many test problems. In this area, BIST techniques for analog and mixed-signal circuits have attracted considerable industrial interest for helping reduce increasing test related difficulties. In this thesis we propose a pseudorandom (PR) functional BIST for MEMS. Since the test control is necessarily electrical, electrical test sequences must be converted to the energy domain required by the MEMS. Thus, we propose the use of pseudorandom electrical pulses that have the advantage of being easily generated on-chip and the conversion to the actual energy domain has been demonstrated for different types of MEMS. We show how different types of PR sequences can be exploited within a BIST approach for both linear and nonlinear MEMS. In general, we show that two-level PR sequences are sufficient for testing both linear and nonlinear MEMS. In addition, while two-level PR sequences are sufficient for characterizing linear MEMS, we describe how the use of multilevel PR sequences is necessary for the characterization of nonlinear MEMS. The number of needed levels depends on the order of nonlinearity of the MEMS under test. The output test response is digitized using an existing on-chip self-testable ADC and a digital circuit performs some simple digital signal processing to extract Impulse Response (IR) samples for linear MEMS, or Volterra kernel samples for nonlinear MEMS. Next, these samples (called test signature) are compared with their tolerance ranges and a pass/fail signal is generated by the BIST. We use Monte Carlo simulations to derive the test signature tolerance ranges out of the specification tolerance ranges. Monte Carlo simulations are also used to form the test signature after a sensitivity analysis, and to inject parametric variations to calculate the test metrics and to optimize BIST design parameters, such as the length of the LFSR and the bit precision of digital circuitry. We have applied the PR BIST for MEMS like commercialized accelerometers and microbeams that we have fabricated. Satisfactory experimental results have been obtained
APA, Harvard, Vancouver, ISO, and other styles
14

Ferrigno, Sandie. "Un test d'adéquation global pour la fonction de répartition conditionnelle." Montpellier 2, 2004. http://www.theses.fr/2004MON20110.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Operto, Grégory. "Analyse structurelle surfacique de données fonctionnelles cétrébrales." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30060.

Full text
Abstract:
Les images fonctionnelles par résonance magnétique contiennent une mesure de l'activité cérébrale en chaque point du cerveau. Si de nombreuses méthodes existent, l'analyse automatique de ces données reste un problème ouvert. Notamment, la très grande majorité des méthodes considère ces données de façon volumique, dans le domaine 3D d'acquisition. Pourtant, l'essentiel de l'activité a lieu dans le cortex, qui peut être considéré comme une surface. Considérer les données sur la surface corticale présente beaucoup d'avantages : d'une part sa géométrie peut être prise en compte dans toutes les étapes de traitement, d'autre part la prise en compte de l'ensemble du volume réduit le pouvoir de détection des tests statistiques généralement employés. Cette thèse propose ainsi une extension du champ d'application des méthodes volumiques vers le domaine surfacique en abordant la projection des données sur la surface, l'analyse multi-sujets ainsi que l'estimation de la validité des résultats
Functional data acquired by magnetic resonance contain a measure of the activity in every location of the brain. If many methods exist, the automatic analysis of these data remains an open problem. In particular, the huge majority of these methods consider these data in a volume-based fashion, in the 3D acquisition space. However, most of the activity is generated within the cortex, which can be considered as a surface. Considering the data on the cortical surface has many advantages : on one hand, its geometry can be taken into account in every processing step, on the other hand considering the whole volume reduces the detection power of usually employed statistical tests. This thesis hence proposes an extension of the application field of volume-based methods to the surface-based domain by adressing problems such as projecting data onto the surface, performing surface-based multi-subjects analysis, and estimating results validity
APA, Harvard, Vancouver, ISO, and other styles
16

Alès, de Corbet Jean-Pierre d'. "Approximation linéaire et non linéaire de fonctions aléatoires : application à la compression des images numériques." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090025.

Full text
Abstract:
Cette thèse est une étude théorique sur les algorithmes de compression des signaux et des images numériques qui utilisent le codage de transformée. Cette étude repose essentiellement sur la notion de concentration de l’énergie sur les coefficients de la transformée, qui est formalisée à l'aide de la théorie de l'approximation. Deux définitions différentes de la concentration de l’énergie sont ainsi présentées. Elles sont reliées respectivement à l'approximation linéaire et non linéaire. Elles sont aussi naturellement associées à deux grandes classes de méthodes de quantification et de codage des coefficients dans les schémas de compression utilisant le codage par transformée. La première pourrait être qualifiée de fixe, et la seconde d'adaptative. Les résultats mathématiques sur l'approximation linéaire et non linéaire dans cette thèse présentent un intérêt intrinsèque. Ils relient la régularité des processus aléatoires d'une part, et la qualité de l'approximation ou la concentration de l’énergie dans les bases hilbertiennes d'autre part. La modélisation mathématique des images joue ici un rôle important. Deux grandes classes de modèles sont examinées de manière plus approfondie. L'une est basée sur la famille des espaces fonctionnels de Besov. L'autre fait appel à des processus aléatoires du second ordre. En particulier une nouvelle classe de tels processus, appelés processus stationnaires par morceaux, est introduite pour essayer de reproduire dans un cadre unidimensionnel le caractère transitoire des images et de certains signaux. Enfin une illustration pratique de l'étude théorique menée dans cette thèse est donnée. Elle suggère notamment que pour quantifier et coder la transformée en ondelettes des images, l'utilisation d'une méthode adaptative se traduit par une amélioration substantielle des performances par rapport à une méthode non adaptative
APA, Harvard, Vancouver, ISO, and other styles
17

Poiret, Aurélien. "Équations de Schrödinger à données aléatoires : construction de solutions globales pour des équations sur-critiques." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00771354.

Full text
Abstract:
Dans cette thèse, on construit un grand nombre de solutions globales pour de nombreuses équations de Schrödinger sur-critiques. Le principe consiste à rendre la donnée initiale aléatoire, selon les mêmes méthodes que Nicolas Burq, Nikolay Tzvetkov et Laurent Thomann afin de gagner de la dérivabilité.On considère d'abord l'équation de Schrödinger cubique en dimension 3. En partant de variables aléatoires gaussiennes et de la base de L^2(R^3) formée des fonctions d'Hermite tensorielles, on construit des ensembles de solutions globales pour des données initiales qui sont moralement dans L^2(R^3). Les points clefs de la démonstration sont l'existence d'une estimée bilinéaire de type Bourgain pour l'oscillateur harmonique et la transformation de lentille qui permet de se ramener à prouver l'existence locale de solutions à l'équation de Schrödinger avec potentiel harmonique.On étudie ensuite l'effet régularisant pour prouver un théorème analogue où le gain de dérivée vaut 1/2-2/(p-1) où p correspond à la non linéarité de l'équation. Le gain est donc plus faible que précédemment mais la base de fonctions propres quelconques. De plus, la méthode s'appuyant sur des estimées linéaires, on établit le résultat pour des variables aléatoires dont la queue de distribution est à décroissance exponentielle.Enfin, on démontre des estimées multilinéaires en dimension 2 pour une base de fonctions propres quelconques ainsi que des inégalités de types chaos de Wiener pour une classe générale de variables aléatoires. Cela nous permet d'établir le théorème pour l'équation de Schrödinger quintique, avec un gain de dérivée égal à 1/3, dans le même cadre que la partie précédente.
APA, Harvard, Vancouver, ISO, and other styles
18

Do, Huy Vu. "Conception testable et test de logiciels flots de données." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0107.

Full text
Abstract:
Cette thèse concerne l'étude de la testabilité des conceptions flot de données des systèmes réactifs développés à l'aide de deux environ développement SCADE et SIMULINK. La testabilité, utilisée pour estimer de manière prédictive la facilité à tester un système, est évaluée par deux mesures : la contrôlabilité et l'observabilité. Nous utilisons la technologie SATAN basée sur la théorie de l'information pour modéliser le transfert d'information dans le système. Les mesures de testabilité sont calculées à partir de la perte d'information dans le schéma d'opérateurs, où chacun des opérateurs contribuent à cette perte d'information. La perte d'information d'un opérateur est calculée soit exhaustivement sur la base de la "table de vérité" de la fonction de l'opérateur, soit de manière statistique via les résultats de simulation de l'opérateur. Notre approche a été intégrée dans un outil permettant une analyse automatique de testabilité
This work concerns the testability analysis of data-flow designs of reactive systems developed by using two development environments SCADE and SIMULINK. The testability, which is used to estimate the facility to test a system, is a combination of two measures : controllability an observability. We use the SATAN technology, which is based on the information theory, to model the transfer of information in the system. The testability measures are computed from the loss of information in the system, where each operator contributes to this loss. The loss of information of an operator can be evaluatedeither exhaustively by basing on the "truth table" of the function of the operator, or statistically by basing on the simulation results of the operator. Our approach is integrated in a tool allowing an automatic analysis of testability of graphical data-flow designs of reactive systems
APA, Harvard, Vancouver, ISO, and other styles
19

Poirier, Régis. "Compression de données pour le test des circuits intégrés." Montpellier 2, 2004. http://www.theses.fr/2004MON20119.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Bonis, Thomas. "Algorithmes d'apprentissage statistique pour l'analyse géométrique et topologique de données." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS459/document.

Full text
Abstract:
Dans cette thèse, on s'intéresse à des algorithmes d'analyse de données utilisant des marches aléatoires sur des graphes de voisinage, ou graphes géométriques aléatoires, construits à partir des données. On sait que les marches aléatoires sur ces graphes sont des approximations d'objets continus appelés processus de diffusion. Dans un premier temps, nous utilisons ce résultat pour proposer un nouvel algorithme de partitionnement de données flou de type recherche de modes. Dans cet algorithme, on définit les paquets en utilisant les propriétés d'un certain processus de diffusion que l'on approche par une marche aléatoire sur un graphe de voisinage. Après avoir prouvé la convergence de notre algorithme, nous étudions ses performances empiriques sur plusieurs jeux de données. Nous nous intéressons ensuite à la convergence des mesures stationnaires des marches aléatoires sur des graphes géométriques aléatoires vers la mesure stationnaire du processus de diffusion limite. En utilisant une approche basée sur la méthode de Stein, nous arrivons à quantifier cette convergence. Notre résultat s'applique en fait dans un cadre plus général que les marches aléatoires sur les graphes de voisinage et nous l'utilisons pour prouver d'autres résultats : par exemple, nous arrivons à obtenir des vitesses de convergence pour le théorème central limite. Dans la dernière partie de cette thèse, nous utilisons un concept de topologie algébrique appelé homologie persistante afin d'améliorer l'étape de "pooling" dans l'approche "sac-de-mots" pour la reconnaissance de formes 3D
In this thesis, we study data analysis algorithms using random walks on neighborhood graphs, or random geometric graphs. It is known random walks on such graphs approximate continuous objects called diffusion processes. In the first part of this thesis, we use this approximation result to propose a new soft clustering algorithm based on the mode seeking framework. For our algorithm, we want to define clusters using the properties of a diffusion process. Since we do not have access to this continuous process, our algorithm uses a random walk on a random geometric graph instead. After proving the consistency of our algorithm, we evaluate its efficiency on both real and synthetic data. We then deal tackle the issue of the convergence of invariant measures of random walks on random geometric graphs. As these random walks converge to a diffusion process, we can expect their invariant measures to converge to the invariant measure of this diffusion process. Using an approach based on Stein's method, we manage to obtain quantitfy this convergence. Moreover, the method we use is more general and can be used to obtain other results such as convergence rates for the Central Limit Theorem. In the last part of this thesis, we use the concept of persistent homology, a concept of algebraic topology, to improve the pooling step of the bag-of-words approach for 3D shapes
APA, Harvard, Vancouver, ISO, and other styles
21

Gregorutti, Baptiste. "Forêts aléatoires et sélection de variables : analyse des données des enregistreurs de vol pour la sécurité aérienne." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066045/document.

Full text
Abstract:
De nouvelles réglementations imposent désormais aux compagnies aériennes d'établir une stratégie de gestion des risques pour réduire encore davantage le nombre d'accidents. Les données des enregistreurs de vol, très peu exploitées à ce jour, doivent être analysées de façon systématique pour identifier, mesurer et suivre l'évolution des risques. L'objectif de cette thèse est de proposer un ensemble d'outils méthodologiques pour répondre à la problématique de l'analyse des données de vol. Les travaux présentés dans ce manuscrit s'articulent autour de deux thèmes statistiques : la sélection de variables en apprentissage supervisé d'une part et l'analyse des données fonctionnelles d'autre part. Nous utilisons l'algorithme des forêts aléatoires car il intègre des mesures d'importance pouvant être employées dans des procédures de sélection de variables. Dans un premier temps, la mesure d'importance par permutation est étudiée dans le cas où les variables sont corrélées. Nous étendons ensuite ce critère pour des groupes de variables et proposons une nouvelle procédure de sélection de variables fonctionnelles. Ces méthodes sont appliquées aux risques d'atterrissage long et d'atterrissage dur, deux questions importantes pour les compagnies aériennes. Nous présentons enfin l'intégration des méthodes proposées dans le produit FlightScanner développé par Safety Line. Cette solution innovante dans le transport aérien permet à la fois le monitoring des risques et le suivi des facteurs qui les influencent
New recommendations require airlines to establish a safety management strategy to keep reducing the number of accidents. The flight data recorders have to be systematically analysed in order to identify, measure and monitor the risk evolution. The aim of this thesis is to propose methodological tools to answer the issue of flight data analysis. Our work revolves around two statistical topics: variable selection in supervised learning and functional data analysis. The random forests are used as they implement importance measures which can be embedded in selection procedures. First, we study the permutation importance measure when the variables are correlated. This criterion is extended for groups of variables and a new selection algorithm for functional variables is introduced. These methods are applied to the risks of long landing and hard landing which are two important questions for airlines. Finally, we present the integration of the proposed methods in the software FlightScanner implemented by Safety Line. This new solution in the air transport helps safety managers to monitor the risks and identify the contributed factors
APA, Harvard, Vancouver, ISO, and other styles
22

Mirauta, Bogdan. "Etude du transcriptome à partir de données de comptages issues de séquençage haut débit." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066424.

Full text
Abstract:
Les technologies de séquençage jouent un rôle croissant dans l'analyse de l'expression des transcrits . La méthode la plus courante de séquençage du transcriptome, RNA-Seq est une méthode d'investigation d'une population de transcrits par cisaillement aléatoire, amplification et séquençage à haut débit. Les données issues du RNA-Seq peuvent être utilisées pour la quantification des niveaux d'expression des transcrits et pour la détection des régions transcrites et demandent des approches bioinformatiques.Nous avons développé des approches statistiques pour l'estimation des niveaux de transcription et l'identification des frontières de transcription sans faire usage de l'annotation existante et pour l'analyse des différences dans l'expression entre deux conditions. La reconstruction du paysage transcriptionel est faite dans un cadre probabiliste (Chaînes de Markov Caché - HMM) ou les variations du niveau de la transcription sont prises en compte en termes de changements brusques et de dérives. Le HMM est complété par une loi d'émission qui capture la variance des comptages dans un transcrit, l'auto-corrélation de courte portée et la fraction des positions avec zéro comptages. L'estimation repose sur un algorithme de Monte Carlo Séquentiel (SMC), le Particle Gibbs, dont le temps d'exécution est plus adapté aux génomes microbiennes. L'analyse des différences dans l'expression (DE) est réalisée sans faire usage de l'annotation existante. L'estimation de DE est premièrement faite à la résolution de position et en suite les régions avec un signal DE continu sont agrégés. Deux programmes nommés Parseq et Pardiff sont disponibles à http://www.lgm.upmc.fr/parseq/
In this thesis we address the problem of reconstructing the transcription profile from RNA-Seq reads in cases where the reference genome is available but without making use of existing annotation. In the first two chapters consist of an introduction to the biological context, high-throughput sequencing and the statistical methods that can be used in the analysis of series of counts. Then we present our contribution for the RNA-Seq read count model, the inference transcription profile by using Particle Gibbs and the reconstruction of DE regions. The analysis of several data-sets proved that using Negative Binomial distributions to model the read count emission is not generally valid. We develop a mechanistic model which accounts for the randomness generated within all RNA-Seq protocol steps. Such a model is particularly important for the assessment of the credibility intervals associated with the transcription level and coverage changes. Next, we describe a State Space Model accounting for the read count profile for observations and transcription profile for the latent variable. For the transition kernel we design a mixture model combining the possibility of making, between two adjacent positions, no move, a drift move or a shift move. We detail our approach for the reconstruction of the transcription profile and the estimation of parameters using the Particle Gibbs algorithm. In the fifth chapter we complete the results by presenting an approach for analysing differences in expression without making use of existing annotation. The proposed method first approximates these differences for each base-pair and then aggregates continuous DE regions
APA, Harvard, Vancouver, ISO, and other styles
23

Lenain, Jean-François. "Comportement asymptotique des estimateurs à noyau de la densité, avec des données discrétisées, pour des suites et des chanmps aléatoires dépendants et non-stationnaires." Limoges, 1999. http://www.theses.fr/1999LIMO0034.

Full text
Abstract:
Nous etudions dans cette these le comportement des estimateurs a noyau de la densite lorsque dependance, non-stationnarite et discretisation sont presentes conjointement. Pour cela, nous generalisons aux champs aleatoires fortement melangeants une notion de non-stationnarite locale, sous la forme d'une condition de convergence en norme de variation totale (nvt) du processus non-stationnaire vers un processus limite stationnaire, en fonction de la distance spatiale. Parallelement, discretisation et non-stationnarite sont traitees simultanement sous la forme d'une distance en nvt entre le processus non-stationnaire discretise et le processus limite stationnaire. Nous donnons les conditions de convergence de l'estimateur et les ordres de grandeur des erreurs selon les criteres habituels tels que le mise ou la moyenne quadratique. Nous montrons que dans certains cas, les effets de la dependance, de la discretisation et de la non-stationnarite ne peuvent etre separes, et dependent a la fois de la dimension de l'espace physique et de celle des variables. Le cas d'echantillons de taille finie est aussi aborde au travers du mise entre estimateurs pour donnees discretisees et estimateur de rosenblatt. Parallelement, nous proposons une formulation nouvelle du theoreme de limite centrale des estimateurs a noyau pour les champs fortement melangeants, permettant une verification plus simple des conditions de convergence. Les cas des coefficients de melange de taux geometrique et arithmetique sont precises. Une comparaison portant sur les criteres d'obtention du tlc est realisee dans le cas general puis dans le cas arithmetique, par rapport a des travaux anterieurs. Ces tlc, obtenus sous des hypotheses legerement differentes, se revelent assez complementaires dans leur champ d'application, et permettent a de nouveaux ensembles de modeles de rentrer dans le cadre de cette convergence.
APA, Harvard, Vancouver, ISO, and other styles
24

El, Haj Abir. "Stochastics blockmodels, classifications and applications." Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2300.

Full text
Abstract:
Cette thèse de doctorat porte sur l’analyse de réseaux pondérés, graphes finis où chaque arête est associée à un poids représentant l’intensité de sa force. Nous introduisons une extension du modèle à blocs stochastiques (SBM) binaire, appelée modèle à blocs stochastiques binomial (bSBM). Cette question est motivée par l’étude des réseaux de co-citations dans un contexte de fouille de textes où les données sont représentées par un graphe. Les noeuds sont des mots et chaque arête joignant deux mots est pondérée par le nombre de documents inclus dans le corpus citant simultanément cette paire de mots. Nous développons une méthode d’inférence basée sur l’algorithme espérance maximisation variationnel (EMV) pour estimer les paramètres du modèle proposé ainsi que pour classifier les mots du réseau. Puis nous adoptons une méthode qui repose sur la maximisation d’un critère ICL (en anglais integrated classification likelihood) pour sélectionner le modèle optimal et le nombre de clusters. D’autre part, nous développons une approche variationnelle pour traiter le réseau et nous comparons les deux approches. Des applications à des données réelles sont adoptées pour montrer l’efficacité des deux méthodes ainsi que pour les comparer. Enfin, nous développons un SBM avec plusieurs attributs pour traiter les réseaux ayant des poids associés aux noeuds. Nous motivons cette méthode par une application qui vise au développement d’un outil d’aide à la spécification de différents traitements cognitifs réalisés par le cerveau lors de la préparation à l’écriture
This PhD thesis focuses on the analysis of weighted networks, where each edge is associated to a weight representing its strength. We introduce an extension of the binary stochastic block model (SBM), called binomial stochastic block model (bSBM). This question is motivated by the study of co-citation networks in a context of text mining where data is represented by a graph. Nodes are words and each edge joining two words is weighted by the number of documents included in the corpus simultaneously citing this pair of words. We develop an inference method based on a variational maximization algorithm (VEM) to estimate the parameters of the modelas well as to classify the words of the network. Then, we adopt a method based on maximizing an integrated classification likelihood (ICL) criterion to select the optimal model and the number of clusters. Otherwise, we develop a variational approach to analyze the given network. Then we compare the two approaches. Applications based on real data are adopted to show the effectiveness of the two methods as well as to compare them. Finally, we develop a SBM model with several attributes to deal with node-weighted networks. We motivate this approach by an application that aims at the development of a tool to help the specification of different cognitive treatments performed by the brain during the preparation of the writing
APA, Harvard, Vancouver, ISO, and other styles
25

Lumbroso, Jérémie. "Probabilistic algorithms for data streaming and random generation." Paris 6, 2012. http://www.theses.fr/2012PA066618.

Full text
Abstract:
Cette thèse examine deux types de problèmes: l'analyse de grands flux de données réelles, et le problème complémentaire de la génération de grande quantités de données aléatoires. Pour cela, elle exploite un ensemble d'outils communs que sont la combinatoire analytique (et les fonctions génératrices), l'énumeration, les probabilités, les algorithmes probabilitistes, avec en particulier la méthode Boltzmann pour la génération aléatoire. Tout d'abord, nous étudions des algorithmes de traitement de données: ces algorithmes sont capables d'extraire des informations de grands flux de données en utilisant des ressources très limitées (notamment pour ce qui est de la mémoire et du temps de traitement par élément du flux). Une des nos contributions principales est de livrer l'analyse complète d'un algorithme optimal pour l'estimation du nombre d'éléments distincts dans un flux, un problème qui a suscité de nombreux travaux. Notre seconde contribution, un travail en commun avec des chercheurs de l'UPC à Barcelone, est d'introduire un estimateur novateur du nombre distinct d'éléments sui se base sur des statistiques sur les permutations. La seconde partie se concentre sur la génération aléatoire de lois discrètes, et d'objets combinatoires. Nous introduisons le premier algorithme optimal pour la génération de la loi uniforme discrète, un élément central utilisé pour les simulations par ordinateur. Nous introduisons aussi, dans un travail en commun avec Olivier Bodini, une extension du modèle de Boltzmann pour permettre la génération aléatoire d'une nouvelle sorte d'objets appartenant à la combinatoire dite multiplicative, qui possède des liens étroits avec la théorie analytique des nombres. Enfin, toujours avec Olivier Bodini, nous présentons un travail en cours qui pourraient permettre d'améliorer l'aspect pratique de la méthode de Boltzmann
This thesis examines two types of problems---that of analyzing large quantities of real data, and the complimentary problem of creating large quantities of (random) data---using a set of common tools: analytic combinatorics (and generating functions), enumeration, probabilities, probabilistic algorithms, and in particular the Boltzmann method for random generation. First, we study several data streaming algorithms: algorithms which are able to extract information from large streams of data using very limited ressources (in particular, memory and processing time per element of the stream). One of our main contributions is to provide a full analysis of an optimal algorithm to estimate the number of distinct elements in a stream, a problem which has garnered a lot of research in the past. Our second contribution, a work in common with researchers from UPC in Barcelona, is to introduce a completely novel type of estimator for the number of distinct elements, which uses statistics on permutations. The second part focuses on the random generation both of laws and combinatorial object. We introduce the first optimal algorithm for the random generation of the discrete uniform law, which is one of the most wildly used building blocks in computational simulations. We also, with Olivier Bodini, introduce an extension of the Boltzmann method to randomly generate a new kind of objects belonging to multiplicative combinatorics, which are an underexplored part of combinatorics with ties to analytic number theory. Finally we present ongoing work with Olivier Bodini on improving the practicality of the Boltzmann method
APA, Harvard, Vancouver, ISO, and other styles
26

Yáñez-Godoy, Humberto. "Mise à jour de variables aléatoires à partir des données d'instrumentations pour le calcul en fiabilité de structures portuaires." Nantes, 2008. http://www.theses.fr/2008NANT2122.

Full text
Abstract:
Ce travail de recherche porte sur l’évaluation de la fiabilité de structures portuaires. Les structures considérées sont des quais sur pieux. Le comportement de ces ouvrages présente de forts aléas notamment à cause des conditions de réalisation difficiles et des sollicitations (tempêtes) particulièrement sévères. Ce dernier point est abordé de manière classique à partir des modèles existants. Le mémoire se concentre essentiellement sur le premier point. On propose alors de recourir à des données d’instrumentation de ces structures. Un recensement des travaux publiés dans ce secteur a été réalisé et a abouti à une stratégie d’instrumentation originale de deux quais similaires en vue d’analyser leur comportement sous chargement horizontal. Pour cela des tirants d’ancrages ont été instrumentés et des capteurs piézométriques installés. Les mesures de trajectoires de champs stochastiques d’efforts ainsi obtenues sont exploitées à deux fins : la modélisation des efforts de remblai et la raideur des tirants. Pour cela, une analyse statistique comparée des efforts dans les deux quais, non exploités, est effectuée. Une modélisation probabiliste est alors proposée et une analyse inverse réalisée sur la base de modèles mécaniques. Dans cette phase le travail s’appuie sur l’identification de paramètres de lois de probabilité usuelles et sur l’identification de paramètres sur le chaos polynomial. Une estimation de la probabilité de défaillance, en considérant une fonction d’état de type performantielle, peut alors être réalisée soit de manière classique, par une méthode de Monte-Carlo, soit par la méthode des éléments finis stochastiques non intrusifs. La situation de calcul considérée combine le chargement de tempête hivernale avec un fort coefficient de marée
This research deals with the reliability assessment of harbour structures. The structures considered are pile-supported wharfs. The behaviour of these structures presents several hazards in particular because of the difficult conditions of building and extreme loadings (storms). This last point is approached in a classical way from existing models. This research dissertation concentrates primarily on the first point. We then propose to resort to monitoring data from these structures. A state of the art in monitoring of harbour structures was carried out and led to an original strategy of instrumentation of two similar wharfs in order to analyse their behaviour under horizontal loading. That’s why tie-rods were instrumented and piezometric sensors were installed. Measurements of trajectories of stochastic fields of loads obtained from monitoring aim to model both the embankment loadings and the tie-rods stiffness; a compared statistical analysis of the loads in the operational phase of the two wharfs is then carried out. A probabilistic modelling is then proposed and an inverse analysis is carried out on the basis of mechanical models. In this phase, the probabilistic approach is based on both the identification of parameters of classical laws of probability and on the identification of parameters on polynomial chaos. An assessment of the probability of failure, by considering a limit state performance criterion, can then be carried out either in a classical way by a method of Monte-Carlo or by a non-intrusive stochastic finite element method. Computation of reliability considers the combination of both loading winter storm and high coefficient tides
APA, Harvard, Vancouver, ISO, and other styles
27

Bessac, Julie. "Sur la construction de générateurs aléatoires de conditions de vent au large de la Bretagne." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S067/document.

Full text
Abstract:
Mon travail porte sur la construction de générateurs aléatoires de conditions de vent en Bretagne. Ces modèles permettent de simuler artificiellement des conditions météorologiques réalistes et sont couramment utilisés pour la gestion des risques liés aux aléas climatiques. Ils sont construits sur la base de données historiques dans le but de produire des simulations cohérentes avec le climat actuel mais peuvent intégrer des scénarios de changement climatique. Les séquences simulées permettent de pallier le manque de données réelles et sont utilisées en entrée de modèles économiques ou écologiques
This work is aimed at constructing stochastic weather generators. These models enable to simulate artificially weather data that have statistical properties consistent with observed meteorology and climate. Outputs of these models are generally used in impact studies in agriculture or in ecology
APA, Harvard, Vancouver, ISO, and other styles
28

Biard, Lucie. "Test des effets centre en épidémiologie clinique." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC302.

Full text
Abstract:
La modélisation des effets centre dans le cadre des données de survie repose souvent sur l'utilisation de modèles de Cox à effets mixtes. Tester un effet centre revient alors à tester à zéro la variance de l'effet aléatoire correspondant. La distribution sous l'hypothèse nulle des statistiques des tests paramétriques usuels n'est alors pas toujours connue. Les procédures de permutation ont été proposées comme alternative, pour les modèles linéaires généralisés mixtes.L'objectif est de développer, pour l'analyse des effets centre dans un modèle de survie de Cox à effets mixtes, une procédure de test de permutation pour les effets aléatoires.La première partie du travail présente la procédure de permutation développée pour le test d'un unique effet centre sur le risque de base, avec une application à la recherche d'un effet centre dans un essai clinique chez des patients atteints de leucémie myéloïde aiguë. La seconde partie porte sur l'extension de la procédure au test d'effets aléatoires multiples afin d’étudier à la fois des effets centre sur le risque de base et sur l'effet de variables, avec des illustrations sur deux cohortes de patients atteints de leucémie aiguë. Dans une troisième partie, les méthodes proposées sont appliquées à une cohorte multicentrique de patients en réanimation atteints d'hémopathies malignes, pour étudier les facteurs déterminant les effets centre sur la mortalité hospitalière. Les procédures de permutation proposées constituent une approche robuste et d'implémentation relativement aisée pour le test, en routine, d'effets aléatoires, donc un outil adapté pour l'analyse d'effets centre en épidémiologie clinique, afin de comprendre leur origine
Centre effects modelling within the framework of survival data often relies on the estimation of Cox mixed effects models. Testing for a centre effect consists in testing to zero the variance component of the corresponding random effect. In this framework, the identification of the null distribution of usual tests statistics is not always straightforward. Permutation procedures have been proposed as an alternative, for generalised linear mixed models.The objective was to develop a permutation test procedure for random effects in a Cox mixed effects model, for the test of centre effects.We first developed and evaluated permutation procedures for the test of a single centre effect on the baseline risk. The test was used to investigate a centre effect in a clinical trial of induction chemotherapy for patients with acute myeloid leukaemia.The second part consisted in extending the procedure for the test of multiple random effects, in survival models. The aim was to be able to examine both center effects on the baseline risk and centre effects on the effect of covariates. The procedure was illustrated on two cohorts of acute leukaemia patients. In a third part, the permutation approach was applied to a cohort of critically ill patients with hematologic malignancies, to investigate centre effects on the hospital mortality.The proposed permutation procedures appear to be robust approaches, easily implemented for the test of random centre effect in routine practice. They are an appropriate tool for the analysis of centre effects in clinical epidemiology, with the purpose of understanding their sources
APA, Harvard, Vancouver, ISO, and other styles
29

Montagner, Morancho Laurence. "Nouvelle méthode de test en rétention de données de mémoires non volatiles." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2004. http://tel.archives-ouvertes.fr/tel-00135027.

Full text
Abstract:
La présence de mémoires non volatiles dans les circuits Smartpower a rendu indispensable le test systématique de la rétention de données sur 100% des composants. L'application des tests classiques sur de forts volumes a pour inconvénient d'allonger la durée de test. Ce travail présente un nouveau test de rétention de données de mémoires non volatiles. Dans une première partie, nous avons dressé l'état de l'art des défauts intrinsèques et extrinsèques de ces mémoires ainsi que de leurs tests de fiabilité. Puis nous avons étudié sur un lot d'ingénierie la rétention de données de la mémoire par les voies classiques du vieillissement thermique pour des températures allant de l'ambiante à 300°C sur une période de 7000h. Cette étude nous a permis de discriminer entre cellules intrinsèques et extrinsèques pour valider un nouveau test en rétention de données, dont la durée est considérablement raccourcie par rapport au test thermique. Ce test se comptera en seconde après optimisation et pourra être implanté en production.
APA, Harvard, Vancouver, ISO, and other styles
30

Montagner-Morancho, Laurence. "Nouvelle méthode de test en rétention de données de mémoires non volatiles." Toulouse, INPT, 2004. http://www.theses.fr/2004INPT027H.

Full text
Abstract:
La présence de mémoires non volatiles dans les circuits Smartpower a rendu indispensable le test systématique de la rétention de données sur 100% des composants. L’application des tests classiques sur de forts volumes a pour inconvénient d’allonger la durée de test. Ce travail présente un nouveau test de rétention de données de mémoires non volatiles. Dans une première partie, nous avons dressé l’état de l’art des défauts intrinsèques et extrinsèques de ces mémoires ainsi que de leurs tests de fiabilité. Puis nous avons étudié sur un lot d’ingénierie la rétention de données de la mémoire par les voies classiques du vieillissement thermique pour des températures allant de l’ambiante à 300°C sur une période de 7000h. Cette étude nous a permis de discriminer les cellules pour valider un nouveau test en rétention de données, dont la durée est considérablement raccourcie par rapport au test thermique. Ce test se comptera en seconde après optimisation et pourra être implanté en production
The introduction of non volatile memory in Smartpower circuits has made necessary systematic 100% die data retention test. Usual tests operated on high production volume increase drastically test time. In this work, we propose a new data retention test on non volatile memory. In a first part, we present a state of the art relative to intrinsic and extrinsic NVM defects and to reliability tests. In a second part, we studied thermal NVM data retention behaviour on engineering lot ranging from ambient temperature to 300°C during 7000h. This study allows cell discrimination to validate a new data retention test which time is strongly reduced compare to the thermal one: after optimisation phases, test time will be about few seconds and then will be implemented in production flow
APA, Harvard, Vancouver, ISO, and other styles
31

Saumard, Mathieu. "Contribution à l'analyse statistique des données fontionnelles." Thesis, Rennes, INSA, 2013. http://www.theses.fr/2013ISAR0009/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux données fonctionnelles. La généralisation du modèle linéaire généralisé fonctionnel au modèle défini par des équations estimantes est étudiée. Nous obtenons un théorème du type théorème de la limite centrale pour l'estimateur considéré. Les instruments optimaux sont estimés, et nous obtenons une convergence uniforme des estimateurs. Nous nous intéressons ensuite à différents tests en données fonctionnelles. Il s'agit de tests non-paramétriques pour étudier l'effet d'une covariable aléatoire fonctionnelle sur un terme d'erreur, qui peut être directement observé comme une réponse ou estimé à partir d'un modèle fonctionnel comme le modèle linéaire fonctionnel. Nous avons prouvé, pour pouvoir mettre en oeuvre les différents tests, un résultat de réduction de la dimension qui s'appuie sur des projections de la covariable fonctionnelle. Nous construisons des tests de non-effet et d'adéquation en utilisant soit un lissage par un noyau, soit un lissage par les plus proches voisins. Un test d'adéquation dans le modèle linéaire fonctionnel est proposé. Tous ces tests sont étudiés d'un point de vue théorique et pratique
In this thesis, we are interested in the functional data. The problem of estimation in a model of estimating equations is studying. We derive a central limit type theorem for the considered estimator. The optimal instruments are estimated, and we obtain a uniform convergence of the estimators. We are then interested in various testing with functional data. We study the problem of nonparametric testing for the effect of a random functional covariate on an error term which could be directly observed as a response or estimated from a functional model like for instance the functional linear model. We proved, in order to construct the tests, a result of dimension reduction which relies on projections of the functional covariate. We have constructed no-effect tests by using a kernel smoothing or a nearest neighbor smoothing. A goodness-of-fit test in the functional linear model is also proposed. All these tests are studied from a theoretical and practical perspective
APA, Harvard, Vancouver, ISO, and other styles
32

Leroux, (zinovieva) Elena. "Méthodes symboliques pour la génération de tests desystèmes réactifs comportant des données." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00142441.

Full text
Abstract:
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans le développement de tels systèmes. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérier si les comportements d'un système sous test sont corrects par rapport à sa spécication. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de test se sont développés. Dans ces théories et algorithmes, les spécications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système
de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels
cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitement toutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
APA, Harvard, Vancouver, ISO, and other styles
33

Gabriel, Edith. "Détection de zones de changement abrupt dans des données spatiales et application à l'agriculture de précision." Montpellier 2, 2004. http://www.theses.fr/2004MON20107.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Kousignian, Isabelle. "Modélisation biostatistique de données longitudinales : applications à des marqueurs immunologiques de l'infection à VIH." Paris 6, 2003. http://www.theses.fr/2003PA066173.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Dalmasso, Julien. "Compression de données de test pour architecture de systèmes intégrés basée sur bus ou réseaux et réduction des coûts de test." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20061/document.

Full text
Abstract:
Les circuits intégrés devenant de plus en plus complexes, leur test demande des efforts considérables se répercutant sur le coût de développement et de production de ces composants. De nombreux travaux ont donc porté sur la réduction du coût de ce test en utilisant en particulier les techniques de compression de données de test. Toutefois ces techniques n'adressent que des coeurs numériques dont les concepteurs détiennent la connaissance de toutes les informations structurelles et donc en pratique n'adressent que le test de sous-blocs d'un système complet. Dans cette thèse, nous proposons tout d'abord une nouvelle technique de compression des données de test pour les circuits intégrés compatible avec le paradigme de la conception de systèmes (SoC) à partir de fonctions pré-synthétisées (IPs ou coeurs). Puis, deux méthodes de test des systèmes utilisant la compression sont proposées. La première est relative au test des systèmes SoC utilisant l'architecture de test IEEE 1500 (avec un mécanisme d'accès au test de type bus), la deuxième concerne le test des systèmes pour lesquels la communication interne s'appuie sur des structures de type réseau sur puce (NoC). Ces deux méthodes utilisent conjointement un ordonnancement du test des coeurs du système avec une technique de compression horizontale afin d'augmenter le parallélisme du test des coeurs constituant le système et ce, à coût matériel constant. Les résultats expérimentaux sur des systèmes sur puces de référence montrent des gains de l'ordre de 50% sur le temps de test du système complet
While microelectronics systems become more and more complex, test costs have increased in the same way. Last years have seen many works focused on test cost reduction by using test data compression. However these techniques only focus on individual digital circuits whose structural implementation (netlist) is fully known by the designer. Therefore, they are not suitable for the testing of cores of a complete system. The goal of this PhD work was to provide a new solution for test data compression of integrated circuits taking into account the paradigm of systems-on-chip (SoC) built from pre-synthesized functions (IPs or cores). Then two systems testing method using compression are proposed for two different system architectures. The first one concerns SoC with IEEE 1500 test architecture (with bus-based test access mechanism), the second one concerns NoC-based systems. Both techniques use test scheduling methods combined with test data compression for better exploration of the design space. The idea is to increase test parallelism with no hardware extra cost. Experimental results performed on system-on-chip benchmarks show that the use of test data compression leads to test time reduction of about 50% at system level
APA, Harvard, Vancouver, ISO, and other styles
36

Lebouvier, Marine. "Test du modèle unitaire de dépense des ménages sur les données canadiennes de 2009." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9765.

Full text
Abstract:
Dans ce mémoire de maîtrise, nous utilisons les microdonnées de l’Enquête sur les dépenses des ménages de Statistique Canada en 2009 pour tester la validité empirique du modèle unitaire de dépense des ménages. En s’inspirant de l’étude conduite par Phipps et Burton en 1998, nous tentons une actualisation de leurs résultats ainsi qu’une analyse de l’évolution du comportement des ménages canadiens entre 1992 et 2009. La nouveauté présentée dans ce mémoire de maîtrise tient justement dans ces résultats. Dans la majorité des catégories de dépenses, nous ne rejetons plus le modèle unitaire et nous en mesurons les implications. Entre ces deux études, les différences entre l’homme et la femme dans les couples canadiens se sont atténuées, ils ont de plus en plus les mêmes préférences en terme de consommation. Enfin, nous poursuivons en apportant un test du modèle coopératif développé par Browning, Bourguignon, Chiappori et Lechene (1994) sur la demande en biens exclusifs. Nous en déduisons un aperçu de la répartition du pouvoir de dépense au sein des ménages canadiens.
APA, Harvard, Vancouver, ISO, and other styles
37

Peyre, Julie. "Analyse statistique des données issues des biopuces à ADN." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00012041.

Full text
Abstract:
Cette thèse est consacrée à l'analyse statistique des données issues des biopuces à ADN. Nous nous intéressons ici à trois problématiques liées aux données du transcriptôme.

Dans un premier chapitre, nous étudions le problème de la normalisation des données dont l'objectif est d'éliminer les variations parasites entre les échantillons des populations pour ne conserver que les variations expliquées par les phénomènes biologiques. Nous présentons plusieurs méthodes existantes pour lesquelles nous proposons des améliorations. Pour guider le choix d'une méthode de normalisation, une méthode de simulation de données de biopuces est mise au point.

Dans un deuxième chapitre, nous abordons le problème de la détection de gènes différentiellement exprimés entre deux séries d'expériences. On se ramène ici à un problème de test d'hypothèses multiples. Plusieurs approches sont envisagées : sélection de modèles et pénalisation, méthode FDR basée sur une décomposition en ondelettes des statistiques de test ou encore seuillage bayésien.

Dans le dernier chapitre, nous considérons les problèmes de classification supervisée pour les données de biopuces. Pour remédier au problème du "fléau de la dimension", nous avons développé une méthode semi-paramétrique de réduction de dimension, basée sur la maximisation d'un critère de vraisemblance locale dans les modèles linéaires généralisés en indice simple. L'étape de réduction de dimension est alors suivie d'une étape de régression par polynômes locaux pour effectuer la classification supervisée des individus considérés.
APA, Harvard, Vancouver, ISO, and other styles
38

Carrière, Isabelle. "Comparaisons des méthodes d'analyse des données binaires ou ordinales corrélées. Application à l'étude longitudinale de l'incapacité des personnes âgées." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00107384.

Full text
Abstract:
La modélisation de réponses binaires ou ordinales corrélées est un domaine de développement
important en épidémiologie. L'étude longitudinale de l'incapacité des personnes âgées et la
recherche des facteurs de risque de la vie en incapacité représente un enjeu crucial de santé
publique. Dans ce contexte nous comparons les modèles logistiques marginaux et les modèles
à effets aléatoires en prenant comme réponse l'incapacité considérée comme variable binaire
afin d'illustrer les aspects suivants : choix de la structure de covariance, importance de
données manquantes et des covariables dépendantes du temps, interprétation des résultats. Le
modèle à effets aléatoires est utilisé pour construire un score prédictif de l'incapacité issu
d'une large analyse des facteurs de risque disponibles dans la cohorte Epidos. Les modèles
logistiques ordonnés mixtes sont ensuite décrits et comparés et nous montrons comment ils
permettent la recherche d'effets différenciés des facteurs sur les stades d'incapacité.
APA, Harvard, Vancouver, ISO, and other styles
39

Verdie, Yannick. "Modélisation de scènes urbaines à partir de données aériennes." Thesis, Nice, 2013. http://www.theses.fr/2013NICE4078.

Full text
Abstract:
L'analyse et la reconstruction automatique de scène urbaine 3D est un problème fondamental dans le domaine de la vision par ordinateur et du traitement numérique de la géométrie. Cette thèse présente des méthodologies pour résoudre le problème complexe de la reconstruction d'éléments urbains en 3D à partir de données aériennes Lidar ou bien de maillages générés par imagerie Multi-View Stereo (MVS). Nos approches génèrent une représentation précise et compacte sous la forme d'un maillage 3D comportant une sémantique de l'espace urbain. Deux étapes sont nécessaires ; une identification des différents éléments de la scène urbaine, et une modélisation des éléments sous la forme d'un maillage 3D. Le Chapitre 2 présente deux méthodes de classifications des éléments urbains en classes d'intérêts permettant d'obtenir une compréhension approfondie de la scène urbaine, et d'élaborer différentes stratégies de reconstruction suivant le type d'éléments urbains. Cette idée, consistant à insérer à la fois une information sémantique et géométrique dans les scènes urbaines, est présentée en détails et validée à travers des expériences. Le Chapitre 3 présente une approche pour détecter la 'Végétation' incluses dans des données Lidar reposant sur les processus ponctuels marqués, combinée avec une nouvelle méthode d'optimisation. Le Chapitre 4 décrit à la fois une approche de maillage 3D pour les 'Bâtiments' à partir de données Lidar et de données MVS. Des expériences sur des structures urbaines larges et complexes montrent les bonnes performances de nos systèmes
Analysis and 3D reconstruction of urban scenes from physical measurements is a fundamental problem in computer vision and geometry processing. Within the last decades, an important demand arises for automatic methods generating urban scenes representations. This thesis investigates the design of pipelines for solving the complex problem of reconstructing 3D urban elements from either aerial Lidar data or Multi-View Stereo (MVS) meshes. Our approaches generate accurate and compact mesh representations enriched with urban-related semantic labeling.In urban scene reconstruction, two important steps are necessary: an identification of the different elements of the scenes, and a representation of these elements with 3D meshes. Chapter 2 presents two classification methods which yield to a segmentation of the scene into semantic classes of interests. The beneath is twofold. First, this brings awareness of the scene for better understanding. Second, deferent reconstruction strategies are adopted for each type of urban elements. Our idea of inserting both semantical and structural information within urban scenes is discussed and validated through experiments. In Chapter 3, a top-down approach to detect 'Vegetation' elements from Lidar data is proposed using Marked Point Processes and a novel optimization method. In Chapter 4, bottom-up approaches are presented reconstructing 'Building' elements from Lidar data and from MVS meshes. Experiments on complex urban structures illustrate the robustness and scalability of our systems
APA, Harvard, Vancouver, ISO, and other styles
40

Vrac, Mathieu. "Analyse et modélisation de données probabilistes par décomposition de mélange de copules et application à une base de données climatologiques." Phd thesis, Université Paris Dauphine - Paris IX, 2002. http://tel.archives-ouvertes.fr/tel-00002386.

Full text
Abstract:
Nous étendons les méthodes de décomposition de mélange de densités de probabilité au cas des données "fonctions de répartition", permettant ainsi de classifier ces fonctions et de modéliser une loi pour ces données fonctionnelles particulières. Cette loi est donnée par la notion de "fonctions de distribution de distributions" (FDD), basée sur la définition d'une fonction de répartition pour des variables aléatoires à valeurs dans un espace probabiliste. Les extensions sont effectuées en associant les FDD aux fonctions "copules" par le théorème de Sklar. Les copules "couplent" les fonctions de répartition à n dimensions (jointes) et à 1-dimension (marginales) d'un n-uplet de variables aléatoires. Nous regardons principalement une classe de copules paramétriques, les copules Archimédiennes, et proposons trois nouvelles méthodes d'estimation des paramètres dans le cas de copules multivariées : par coefficients de corrélation de Kendall, de Spearman, et par maximisation de la vraisemblance. L'association des FDD et des copules caractérise l'évolution des données fonctionnelles (i.e. la forme de ces fonctions) entre différents points à l'intérieur des classes pour chaque variable, et donne une mesure de dépendance entre les variables utilisées. Les méthodes sont tout d'abord développées pour une variable, puis divers généralisations sont proposées pour n dimensions. Certains points théoriques sont ensuite discutés, tels que la convergence de l'algorithme et le fait que la méthode par copules est une généralisation du cas classique. Une application de la méthode "approche classification" par copules est réalisée sur des données climatiques de l'atmosphère terrestre. Le but est la classification de "profils" atmosphériques et l'estimation de la loi sous-jacente des données. Les résultats sont comparés avec ceux de méthodes "classiques", prouvant ainsi les performances nettement supérieures de la méthode par décomposition de mélange de copules (DMC) et l'intérêt de l'utilisation des données probabilistes.
APA, Harvard, Vancouver, ISO, and other styles
41

Claeys, Emmanuelle. "Clusterisation incrémentale, multicritères de données hétérogènes pour la personnalisation d’expérience utilisateur." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD039.

Full text
Abstract:
Dans de nombreux domaines (santé, vente en ligne, …) concevoir ex nihilo une solution optimale répondant à un problème défini (trouver un protocole augmentant le taux de guérison, concevoir une page Web favorisant l'achat d'un ou plusieurs produits, ...) est souvent très difficile voire impossible. Face à cette difficulté, les concepteurs (médecins, web designers, ingénieurs de production,...) travaillent souvent de façon incrémentale par des améliorations successives d'une solution existante. Néanmoins, définir les modifications les plus pertinentes reste un problème difficile. Pour tenter d'y répondre, une solution adoptée de plus en plus fréquemment consiste à comparer concrètement différentes alternatives (appelées aussi variations) afin de déterminer celle(s) répondant le mieux au problème via un A/B Test. L'idée est de mettre en oeuvre réellement ces alternatives et de comparer les résultats obtenus, c'est-à-dire les gains respectifs obtenus par chacune des variations. Pour identifier la variation optimale le plus rapidement possible, de nombreuses méthodes de test utilisent une stratégie d'allocation dynamique automatisée. Le principe est d'allouer le plus rapidement possible et automatiquement, les sujets testés à la variation la plus performante, par un apprentissage par renforcement. Parmi les méthodes possibles, il existe en théorie des probabilités les méthodes de bandit manchot. Ces méthodes ont montré leur intérêt en pratique mais également des limites, dont en particulier une temps de latence (c'est-à-dire un délai entre l'arrivée d'un sujet à tester et son allocation) trop important, un déficit d'explicabilité des choix et la non-intégration d’un contexte évolutif décrivant le comportement du sujet avant d’être testé. L'objectif global de cette thèse est de proposer une méthode générique d'A/B test permettant une allocation dynamique en temps réel capable de prendre en compte les caractéristiques des sujets, qu'elles soient temporelles ou non, et interprétable a posteriori
In many activity sectors (health, online sales,...) designing from scratch an optimal solution for a defined problem (finding a protocol to increase the cure rate, designing a web page to promote the purchase of one or more products,...) is often very difficult or even impossible. In order to face this difficulty, designers (doctors, web designers, production engineers,...) often work incrementally by successive improvements of an existing solution. However, defining the most relevant changes remains a difficult problem. Therefore, a solution adopted more and more frequently is to compare constructively different alternatives (also called variations) in order to determine the best one by an A/B Test. The idea is to implement these alternatives and compare the results obtained, i.e. the respective rewards obtained by each variation. To identify the optimal variation in the shortest possible time, many test methods use an automated dynamic allocation strategy. Its allocate the tested subjects quickly and automatically to the most efficient variation, through a learning reinforcement algorithms (as one-armed bandit methods). These methods have shown their interest in practice but also limitations, including in particular a latency time (i.e. a delay between the arrival of a subject to be tested and its allocation) too long, a lack of explicitness of choices and the integration of an evolving context describing the subject's behaviour before being tested. The overall objective of this thesis is to propose a understable generic A/B test method allowing a dynamic real-time allocation which take into account the temporals static subjects’s characteristics
APA, Harvard, Vancouver, ISO, and other styles
42

Guyader, Arnaud. "Contribution aux algorithmes de décodage pour les codes graphiques." Rennes 1, 2002. http://www.theses.fr/2002REN10014.

Full text
Abstract:
En 1993, grâce à leurs nouveaux codes correcteurs d'erreurs, les turbo-codes, Berrou et al. Obtiennent des performances proches de la limite théorique de Shannon. Cette découverte est à l'origine de nouvelles approches, ne se limitant pas au domaine du codage canal, et connues sous le nom de techniques t̀̀urbo'', alliant d'excellentes performances à une complexité algorithmique raisonnable. L'idée initiale était de voir comment appliquer les idées graphiques de décodage approché aux codes courts, d'où la nécessité d'orienter le travail vers l'étude du comportement de la propagation dans les graphes cycliques, et vers une approche plus locale du problème. Des éléments de réponse et, dans certains cas, des améliorations ont été apportés à ces problèmes. Un travail sur le codage conjoint source-canal a été mené en parallèle : c'est une nouvelle application, probante, de la méthode t̀̀urbo''. Elle montre à la fois la puissance de cette idée et la commodité du formalisme des réseaux bayésiens.
APA, Harvard, Vancouver, ISO, and other styles
43

Zinovieva-Leroux, Eléna. "Méthodes symboliques pour la génération de tests de systèmes réactifs comportant des données." Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00142441.

Full text
Abstract:
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans ledéveloppement de tels système. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérifier si les comportements d'un système sous test sont corrects par rapport à sa spécification. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de testse sont développées. Dans ces théories et algorithmes, les spécifications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitementtoutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
APA, Harvard, Vancouver, ISO, and other styles
44

Noumon, Allini Elie. "Caractérisation, évaluation et utilisation du jitter d'horloge comme source d'aléa dans la sécurité des données." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES019.

Full text
Abstract:
Cette thèse, financée par la DGA, est motivée par la problématique d’évaluation des TRNG pour des applications à très haut niveau de sécurité. Les standards actuels tels que AIS-31 n’étant pas suffisants pour ces types d’applications, la DGA propose une procédure complémentaire, validée sur les TRNG utilisant les oscillateurs en anneau (RO), qui vise à caractériser la source d’aléa des TRNG afin d’identifier les bruits électroniques présents dans celle-ci. Ces bruits se traduisent dans les circuits numériques par le jitter d’horloge générée dans les RO. Ils peuvent être caractérisés par leur densité spectrale de puissance reliée à la variance d’Allan temporelle qui permet, contrairement à la variance standard pourtant encore largement utilisée, de discriminer ces différents types de bruit (thermique, flicker principalement). Cette étude a servi de base à l’estimation de la part du jitter due au bruit thermique utilisé dans les modèles stochastiques décrivant la sortie des TRNG. Afin d’illustrer et de valider l’approche de certification DGA sur d’autres principes de TRNG que les RO, nous proposons une caractérisation de la PLL en tant que source d’aléa. Nous avons modélisé la PLL en termes de fonctions de transfert. Cette modélisation a conduit à l’identification de la source de bruit en sortie de la PLL, ainsi que de sa nature en fonction des paramètres physiques de la PLL. Cela a permis de proposer des recommandations quant au choix des paramètres afin de garantir une entropie maximale. Afin d’aider à la conception de ce type de TRNG, nous proposons également un outil de recherche des paramètres non physiques du générateur assurant le meilleur compromis sécurité/débit
This thesis, funded by the DGA, is motivated by the problem of evaluation of TRNG for applications with a very high level of security. As current standards such as AIS-31 are not sufficient for these types of applications, the DGA proposes a complementary procedure, validated on TRNG using ring oscillators (RO), which aims to characterize the source of randomness of TRNG in order to identify electronic noises present in it. These noises are manifested in the digital circuits by the clock jitter generated in the RO. They can be characterized by their power spectral density related to the time Allan variance which allows, unlike the standard variance which is still widely used, to discriminate these different types of noise (mainly thermal, flicker). This study was used as a basis for estimating the proportion of jitter due to thermal noise used in stochastic models describing the output of TRNG. In order to illustrate and validate the DGA certification approach on other principles of TRNG apart from RO, we propose a characterization of PLL as a source of randomness. We have modeled the PLL in terms of transfer functions. This modeling has led to the identification of the source of noise at the output of the PLL, as well as its nature as a function of the physical parameters of the PLL. This allowed us to propose recommendations on the choice of parameters to ensure maximum entropy. In order to help in the design of this type of TRNG, we also propose a tool to search for the non-physical parameters of the generator ensuring the best compromise between security and throughput
APA, Harvard, Vancouver, ISO, and other styles
45

Papailiopoulou, Virginia. "Test automatique de programmes Lustre / SCADE." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00454409.

Full text
Abstract:
Ce travail porte sur l'amélioration du processus de test, en offrant des moyens d'automatiser la génération des tests ainsi que l'évaluation de leur qualité, dans le cadre des systèmes embarqués spécifiés en Lustre/SCADE. D'une part, nous présentons une méthodologie de test basée sur l'outil Lutess qui génère automatiquement des données de test exclusivement à partir de la description de l'environnement du système. D'autre part, on se base sur le modèle SCADE du programme sous test et nous définissons des critères de couverture structurelle qui prennent en compte deux nouveaux aspects: l'utilisation des plusieurs horloges et le test d'intégration, permettant la mesure de couverture de systèmes de grande taille. Ces deux stratégies pourraient avoir un impact positif sur le test efficace des applications réelles. Des études de cas extraites du domaine de l'avionique sont employées pour démontrer l'applicabilité de ces méthodes et pour évaluer leur complexité.
APA, Harvard, Vancouver, ISO, and other styles
46

Papailiopoulou, Virginia. "Test automatique de programmes Lustre / SCADE." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM005.

Full text
Abstract:
Ce travail porte sur l'amélioration du processus de test, en offrant des moyens d'automatiser la génération des tests ainsi que l'évaluation de leur qualité, dans le cadre des systèmes embarqués spécifiés en Lustre/SCADE. D'une part, nous présentons une méthodologie de test basée sur l'outil Lutess qui génère automatiquement des données de test exclusivement à partir de la description de l'environnement du système. D'autre part, on se base sur le modèle SCADE du programme sous test et nous définissons des critères de couverture structurelle qui prennent en compte deux nouveaux aspects: l'utilisation des plusieurs horloges et le test d'intégration, permettant la mesure de couverture de systèmes de grande taille. Ces deux stratégies pourraient avoir un impact positif sur le test efficace des applications réelles. Des études de cas extraites du domaine de l'avionique sont employées pour démontrer l'applicabilité de ces méthodes et pour évaluer leur complexité
The work in this thesis addresses the improvement of the testing process with a view to automating test data generation as well as its quality evaluation, in the framework of reactive synchronous systems specified in Lustre/SCADE. On the one hand, we present a testing methodology using the Lutess tool that automatically generates test input data based exclusively on the environment description of the system under test. On the other hand, we are based on the SCADE model of the program under test and we define structural coverage criteria taking into account two new aspects: the use of multiple clocks as well as integration testing, allowing the coverage measurement of large-sized systems. These two strategies could have a positive impact in effectively testing real-world applications. Case studies extracted from the avionics domain are used to demonstrate the applicability of these methods and to empirically evaluate their complexity
APA, Harvard, Vancouver, ISO, and other styles
47

Molinari, Isabelle. "Test de génération de thrombine sur ACL7000 (développement d'un programme de traitement des données sur Microsoft Excel et éléments d'analyse de l'intérêt du test dans les états d'hypercoagulabilité)." Bordeaux 2, 1999. http://www.theses.fr/1999BOR23102.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Guedj, Mickael. "Méthodes Statistiques pour l'Analyse de Données Génétiques d'Association à Grande Echelle." Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00169411.

Full text
Abstract:
Les avancées en Biologie Moléculaire ont accéléré le développement de techniques de génotypage haut-débit et ainsi permis le lancement des premières études génétiques d'association à grande échelle. La dimension et la complexité des données issues de ce nouveau type d'étude posent aujourd'hui de nouvelles perspectives statistiques et informatiques nécessaires à leur analyse, constituant le principal axe de recherche de cette thèse.
Après une description introductive des principales problématiques liées aux études d'association à grande échelle, nous abordons plus particulièrement les approches simple-marqueur avec une étude de puissance des principaux tests d'association, ainsi que de leur combinaisons. Nous considérons ensuite l'utilisation d'approches multi-marqueurs avec le développement d'une méthode d'analyse fondée à partir de la statistique du Score Local. Celle-ci permet d'identifier des associations statistiques à partir de régions génomiques complètes, et non plus des marqueurs pris individuellement. Il s'agit d'une méthode simple, rapide et flexible pour laquelle nous évaluons les performances sur des données d'association à grande échelle simulées et réelles. Enfin ce travail traite également du problème du test-multiple, lié aux nombre de tests à réaliser lors de l'analyse de données génétiques ou génomiques haut-débit. La méthode que nous proposons à partir du Score Local prend en compte ce problème. Nous évoquons par ailleurs l'estimation du Local False Discovery Rate à travers un simple modèle de mélange gaussien.
L'ensemble des méthodes décrites dans ce manuscrit ont été implémentées à travers trois logiciels disponibles sur le site du laboratoire Statistique et Génome : fueatest, LHiSA et kerfdr.
APA, Harvard, Vancouver, ISO, and other styles
49

Baghi, Quentin. "Optimisation de l’analyse de données de la mission spatiale MICROSCOPE pour le test du principe d’équivalence et d’autres applications." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEO003/document.

Full text
Abstract:
Le Principe d'Equivalence (PE) est un pilier fondamental de la Relativité Générale. Il est aujourd'hui remis en question par les tentatives d'élaborer une théorie plus exhaustive en physique fondamentale, comme la théorie des cordes. La mission spatiale MICROSCOPE vise à tester ce principe à travers l'universalité de la chute libre, avec un objectif de précision de 10-15, c'est-à-dire un gain de deux ordres de grandeurs par rapport aux expériences actuelles. Le satellite embarque deux accéléromètres électrostatiques, chacun intégrant deux masses-test. Les masses de l'accéléromètre servant au test du PE sont de compositions différentes, alors que celles de l'accéléromètre de référence sont constituées d'un même matériau. L'objectif est de mesurer la chute libre des masses-test dans le champ gravitationnel de la Terre, en mesurant leur accélération différentielle avec une précision attendue de 10-12 ms-2Hz-1/2 dans la bande d'intérêt. Une violation du PE se traduirait par une différence périodique caractéristique entre les deux accélérations. Cependant, diverses perturbations sont également mesurées en raison de la grande sensibilité de l'instrument. Certaines d'entre elles, comme les gradients de gravité et d'inertie, sont bien définies. En revanche d'autres ne sont pas modélisées ou ne le sont qu'imparfaitement, comme le bruit stochastique et les pics d'accélérations dus à l'environnement du satellite, qui peuvent entraîner des saturations de la mesure ou des données lacunaires. Ce contexte expérimental requiert le développement d'outils adaptés pour l'analyse de données, qui s'inscrivent dans le cadre général de l'analyse des séries temporelles par régression linéaire.On étudie en premier lieu la détection et l’estimation de perturbations harmoniques dans le cadre de l'analyse moindres carrés. On montre qu’avec cette technique la projection des perturbations harmoniques sur le signal de violation du PE peut être maintenue à un niveau acceptable. On analyse ensuite l'impact des pertes de données sur la performance du test du PE. On montre qu'avec l'hypothèse pire cas sur la fréquence des interruptions de données (environ 300 interruptions de 0.5 seconde par orbite, chiffre évalué avant le vol), l'incertitude des moindres carrés ordinaires est multipliée par un facteur 35 à 60. Pour compenser cet effet, une méthode de régression linéaire basée sur une estimation autorégressive du bruit est développée, qui permet de décorréler les observations disponibles, sans calcul ni inversion directs de la matrice de covariance. La variance de l'estimateur ainsi construit est proche de la valeur optimale, ce qui permet de réaliser un test du PE au niveau attendu, même en présence de pertes de données fréquentes. On met également en place une méthode pour évaluer plus précisément la DSP du bruit à partir des données disponibles, sans utilisation de modèle a priori. L'approche est fondée sur une modification de l'algorithme espérance-maximisation (EM) avec une hypothèse de régularité de la DSP, en utilisant une imputation statistique des données manquantes. On obtient une estimée de la DSP avec une erreur inférieure à 10-12 ms-2Hz-1/2. En dernier lieu, on étend les applications de l'analyse de données en étudiant la faisabilité de la mesure du gradient de gravité terrestre avec MICROSCOPE. On évalue la capacité de cette observable à déchiffrer la géométrie des grandes échelles du géopotentiel. Par simulation des signaux obtenus à partir de différents modèles du manteau terrestre profond, on montre que leurs particularités peuvent être distinguées
The Equivalence Principle (EP) is a cornerstone of General Relativity, and is called into question by the attempts to build more comprehensive theories in fundamental physics such as string theories. The MICROSCOPE space mission aims at testing this principle through the universality of free fall, with a target precision of 10-15, two orders of magnitude better than current on-ground experiments. The satellite carries on-board two electrostatic accelerometers, each one including two test-masses. The masses of the test accelerometer are made with different materials, whereas the masses of the reference accelerometer have the same composition. The objective is to monitor the free fall of the test-masses in the gravitational field of the earth by measuring their differential accelerations with an expected precision of 10-12 ms-2Hz-1/2 in the bandwidth of interest. An EP violation would result in a characteristic periodic difference between the two accelerations. However, various perturbations are also measured because of the high sensitivity of the instrument. Some of them are well defined, e.g. gravitational and inertial gradient disturbances, but others are unmodeled, such as random noise and acceleration peaks due to the satellite environment, which can lead to saturations in the measurement or data gaps. This experimental context requires us to develop suited tools for the data analysis, which are applicable in the general framework of linear regression analysis of time series.We first study the statistical detection and estimation of unknown harmonic disturbances in a least squares framework, in the presence of a colored noise of unknown PSD. We show that with this technique the projection of the harmonic disturbances onto the WEP violation signal can be rejected. Secondly we analyze the impact of the data unavailability on the performance of the EP test. We show that with the worst case before-flight hypothesis (almost 300 gaps of 0.5 second per orbit), the uncertainty of the ordinary least squares is increased by a factor 35 to 60. To counterbalance this effect, a linear regression method based on an autoregressive estimation of the noise is developed, which allows a proper decorrelation of the available observations, without direct computation and inversion of the covariance matrix. The variance of the constructed estimator is close to the optimal value, allowing us to perform the EP test at the expected level even in case of very frequent data interruptions. In addition, we implement a method to more accurately characterize the noise PSD when data are missing, with no prior model on the noise. The approach is based on modified expectation-maximization (EM) algorithm with a smooth assumption on the PSD, and use a statistical imputation of the missing data. We obtain a PSD estimate with an error less than 10-12 ms-2Hz-1/2. Finally, we widen the applications of the data analysis by studying the feasibility of the measurement of the earth's gravitational gradient with MICROSCOPE data. We assess the ability of this set-up to decipher the large scale geometry of the geopotential. By simulating the signals obtained from different models of the earth's deep mantle, and comparing them to the expected noise level, we show that their features can be distinguished
APA, Harvard, Vancouver, ISO, and other styles
50

Fouchez, Dominique. "Etude de canaux de physique non-standard au LHC : analyse des données de test d'un calorimètre plomb/fibres scintillantes." Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX22003.

Full text
Abstract:
En utilisant une simulation rapide du projet de detecteur atlas aupres du lhc, nous etudions les possibilites de decouverte d'un nouveau boson neutre (z), dans ses canaux de desintegration leptonique. Nous montrons qu'un z, decrit par le modele de jauge etendue, pourra etre decouvert si sa masse est inferieure a 5 tev. Nous etudions ensuite la production de paires de boson vectoriel. Apres avoir reduit les bruits de fond tres importants en utilisant les capacites d'identification de particules prevues avec le detecteur atlas, nous pouvons fixer des limites de sensibilite sur les parametres du couplage anormal des triples vertex de la theorie electrofaible: |kappa-galla|<0. 11, |lambda-gamma|<0. 0038; |kappa-z|<0. 20, |lambda-z|<0. 0090. Nous presentons dans le dernier chapitre des resultats de tests en faisceau d'un prototype de calorimetre plomb/fibres scintillantes (rd1-spacal)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography