Dissertations / Theses on the topic 'Sciences de la complexité'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 50 dissertations / theses for your research on the topic 'Sciences de la complexité.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Eynaud, Yoan. "Contribution à la gestion de la complexité des modèles en sciences de l'environnement." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4109.
Ecological modelling is nowadays a leading topic. the models used in environmental science turn to be more and more complex. Driven by technological advancement, the models used in environmental sciences are increasingly complex. The complexity of models is a need for a variety of studies, but it can also be a source of misunderstanding, or even errors. How to manage its implementation is therefore necessary. With this in mind, two complementary approaches have been studied in this thesis. On the one hand, it is possible to manage the complexity textit a priori, by directly constraining the construction assumptions and formalism of the model using a theo- retical framework. An illustration of the use of a theoretical framework, the theory of Dynamic Energy Budgets, shows how an accurate description of the effect of ultraviolet was added to a model of scleractinian corals. This study enlightened their possible role in coral bleaching events. Managing complexity can also be carried out textit a posteriori, ie once the construc- tion phase is done. Thus, a simplification methodology using a statistical analysis of the model outputs was established . As an example, this method was applied on a micro- scale model of the mesopelagic ecosystem. Eventually, not being able of pursuing an analytical approach of the model is not inevitable for those who want to still mastering their model, it exists a multitude of tool who brings equally interesting informations
Bonfante, Guillaume. "Complexité implicite des calculs : interprétation de programmes." Habilitation à diriger des recherches, Institut National Polytechnique de Lorraine - INPL, 2011. http://tel.archives-ouvertes.fr/tel-00656766.
Hadjiat, Malika. "Problèmes de tension sur un graphe : algorithmes et complexité." Aix-Marseille 2, 1996. http://www.theses.fr/1996AIX22061.
Rosiello, Immacolata. "Méthodes de simulation, analyse de la complexité, utilisation de modèles, interdisciplinarité." Aix-Marseille 1, 2009. http://www.theses.fr/2009AIX10111.
Poreau, Brice. "Biologie et complexité : histoire et modèles du commensalisme." Phd thesis, Université Claude Bernard - Lyon I, 2014. http://tel.archives-ouvertes.fr/tel-01063917.
Ka, Ahmad Khoureich. "Méthodes à faible complexité algorithmique pour l'analyse d'ECG." Phd thesis, Rennes 1, 2012. https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/96446b82-5669-4387-bb4f-bda6a14bfe0a.
Cette thèse a porté sur l'analyse des électrocardiogrammes en vu de développer de nouvelles méthodes efficaces de classification des arythmies (un outil de diagnostique) et de localisation automatique des battements anormaux en temps réel dans un signal ECG (un outil de surveillance). Les signaux ECG sont prétraités et les battements extraits sont compressés puis analysés à l'aide de la décomposition en ondellettes. La méthode de classification proposée exploite les spécificités du patient en faisant un regroupement contextuel des battements et en utilisant une base de données de battements cardiaques annotés. La méthode utilise également une fonction de similarité pour comparer deux battements donnés. La méthode de localisation exploite aussi la décomposition en ondelettes mais se base sur une partie des données disponibles (set of parsimony) pour détecter automatiquement et temps réel à l'aide d'une fonction masque les battements cardiaques anormaux contenus dans le signal ECG. Les deux méthodes ont été testées sur les signaux électrocardiogrammes du MIT-BIH arrhythmia database et des bons résultats ont été obtenus
Ka, Ahmad Khoureich. "Méthodes à faible complexité algorithmique pour l'analyse d'ECG." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00816445.
Madet, Antoine. "Complexité Implicite de Lambda-Calculs Concurrents." Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00794977.
Wells, Jennifer. "Complexité et changement climatique : une étude épistémologique des théories de la complexité transdisciplinaires et leur apport aux phénomènes socio-écologiques." Thesis, Paris 4, 2009. http://www.theses.fr/2009PA040136/document.
This dissertation presents an epistemological analysis of complexity theories, an evaluation of their contribution, both generally and to specific domains, and a demonstration of their important contribution to climate change. The objective is to provide a description of complexity theories across the whole range of disciplines, as complexity theories continue to expand and the list of their proposed benefits continue to grow. The case study of climate change is rich, as it touches on a number of complex systems of primary significance to humanity, such as agriculture, energy, water, and the economy. The present work proposes first a definition of generalized complexity, comprised of a general framework of the field based upon six major categories. It proceeds to analyze, in light of this framework, the scientific, ethical and political dimensions of climate change. Our point of departure consists in a thorough examination of three important bodies of literature: the IPCC report “Climate Change 2007,” the “Millennium Ecosystem Assessment,” and the ethics of climate change. The dissertation shows that the use of complexity theories is necessary in order to measure in a rigorous manner the contribution, not only of the multiple aspects of different complex systems involved, but also of the framework as an ensemble, with its polyvalent signification. By examining the role and the utility of complexity theories in multiple fields at multiple scales, we reveal a series of key principles regarding the nature and usage of these theories
Loubet, Lilian. "Les maires confrontés à l'apprentissage de l'intercommunalité : l'exemple de l'agglomération toulousaine." Phd thesis, Université Toulouse le Mirail - Toulouse II, 2011. http://tel.archives-ouvertes.fr/tel-00638938.
Nesme, Vincent. "Complexité en requêtes et symétries." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2007. http://tel.archives-ouvertes.fr/tel-00156762.
problèmes symétriques, dans les cadres du calcul probabiliste classique
et du calcul quantique.
Il est montré, dans le cas quantique, une application de la méthode de
bornes inférieures dite "polynomiale" au calcul de la complexité en
requêtes des problèmes de sous-groupes cachés abéliens, via la technique de "symétrisation".
Dans le cas du calcul probabiliste, sous une hypothèse de "symétrie
transitive" des problèmes, il est donné une formule combinatoire
permettant de calculer la complexité en requêtes exacte du meilleur
algorithme non-adaptatif. De plus, il est mis en évidence que sous
certaines hypothèses de symétrie, ce meilleur algorithme non-adaptatif
est optimal même parmi les algorithmes probabilistes plus généraux, ce qui donne pour la classe de problèmes correspondante une expression exacte de la complexité en requêtes.
Zeitoun, Xavier. "Complexité des dynamiques de jeux." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00870614.
Massart, David. "La gestion de la complexité des schémas conceptuels à base d'objets." Doctoral thesis, Universite Libre de Bruxelles, 2001. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211495.
Briquel, Irénée. "Complexité de problèmes de comptage, d'évaluation et de recherche de racines de polynômes." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2011. http://tel.archives-ouvertes.fr/tel-00677977.
Cheikh-Alili, Fahima. "Composition de services: algorithmes et complexité." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00459114.
Blondin, Michael. "Algorithmique et complexité des systèmes à compteurs." Thèse, Université Paris-Saclay (ComUE), 2016. http://hdl.handle.net/1866/16025.
L'un des aspects fondamentaux des systèmes informatiques modernes, et en particulier des systèmes critiques, est la possibilité d'exécuter plusieurs processus, partageant des ressources communes, de façon simultanée. De par leur nature concurrentielle, le bon fonctionnement de ces systèmes n'est assuré que lorsque leurs comportements ne dépendent pas d'un ordre d'exécution prédéterminé. En raison de cette caractéristique, il est particulièrement difficile de s'assurer qu'un système concurrent ne possède pas de faille. Dans cette thèse, nous étudions la vérification formelle, une approche algorithmique qui vise à automatiser la vérification du bon fonctionnement de systèmes concurrents en procédant par une abstraction vers des modèles mathématiques. Nous considérons deux de ces modèles, les réseaux de Petri et les systèmes d'addition de vecteurs, et les problèmes de vérification qui leur sont associés. Nous montrons que le problème d'accessibilité pour les systèmes d'addition de vecteurs (avec états) à deux compteurs est PSPACE-complet, c'est-à-dire complet pour la classe des problèmes solubles à l'aide d'une quantité polynomiale de mémoire. Nous établissons ainsi la complexité calculatoire précise de ce problème, répondant à une question demeurée ouverte depuis plus de trente ans. Nous proposons une nouvelle approche au problème de couverture pour les réseaux de Petri, basée sur un algorithme arrière guidé par une caractérisation logique de l'accessibilité dans les réseaux de Petri continus. Cette approche nous a permis de mettre au point un nouvel algorithme qui s'avère particulièrement efficace en pratique, tel que démontré par notre implémentation logicielle nommée QCover. Nous complétons ces résultats par une étude des systèmes de transitions bien structurés qui constituent une abstraction générale des systèmes d'addition de vecteurs et des réseaux de Petri. Nous considérons le cas des systèmes de transitions bien structurés à branchement infini, une classe qui inclut les réseaux de Petri possédant des arcs pouvant consommer ou produire un nombre arbitraire de jetons. Nous développons des outils mathématiques facilitant l'étude de ces systèmes et nous délimitons les frontières au-delà desquelles la décidabilité des problèmes de terminaison, de finitude, de maintenabilité et de couverture est perdue.
One fundamental aspect of computer systems, and in particular of critical systems, is the ability to run simultaneously many processes sharing resources. Such concurrent systems only work correctly when their behaviours are independent of any execution ordering. For this reason, it is particularly difficult to ensure the correctness of concurrent systems. In this thesis, we study formal verification, an algorithmic approach to the verification of concurrent systems based on mathematical modeling. We consider two of the most prominent models, Petri nets and vector addition systems, and their usual verification problems considered in the literature. We show that the reachability problem for vector addition systems (with states) restricted to two counters is PSPACE-complete, that is, it is complete for the class of problems solvable with a polynomial amount of memory. Hence, we establish the precise computational complexity of this problem, left open for more than thirty years. We develop a new approach to the coverability problem for Petri nets which is primarily based on applying forward coverability in continuous Petri nets as a pruning criterion inside a backward coverability framework. We demonstrate the effectiveness of our approach by implementing it in a tool named QCover. We complement these results with a study of well-structured transition systems which form a general abstraction of vector addition systems and Petri nets. We consider infinitely branching well-structured transition systems, a class that includes Petri nets with special transitions that may consume or produce arbitrarily many tokens. We develop mathematical tools in order to study these systems and we delineate the decidability frontier for the termination, boundedness, maintainability and coverability problems.
Pégny, Maël. "Sur les limites empiriques du calcul : calculabilité, complexité et physique." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010673/document.
Recent years have seen a surge in the interest for non-standard computational models, inspired by physical, biological or chemical phenomena. The exact properties of some of these models have been a topic of somewhat heated discussion: what do they compute? And how fast do they compute? The stakes of these questions were heightened by the claim that these models would violate the accepted limits of computation, by violating the Church-Turing Thesis or the Extended Church-Turing Thesis. To answer these questions, the physical realizability of some of those models - or lack thereof - has often been put at the center of the argument. It thus seems that empirical considerations have been introduced into the very foundations of computability and computational complexity theory, both subjects that would have been previously considered purely a priori parts of logic and computer science. Consequently, this dissertation is dedicated to the following question: do computability and computational complexity theory rest on empirical foundations? If yes, what are these foundations? We will first examine the precise meaning of those limits of computation, and articulate a philosophical conception of computation able to make sense of this variety of models. We then answer the first question by the affirmative, through a careful examination of current debates around non-standard models. We show the various difficulties surrounding the second question, and study how they stem from the complex translation of computational concepts into physical limitations
Brochenin, Rémi. "Separation logic : expressiveness, complexity, temporal extension." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00956587.
Lagniaux, Franck. "Epistémologie des savoirs enseignés, appropriés et utilisés en masso-kinésithérapie. : Contribution des résultats de recherche en sciences de l’éducation à la création d’une discipline en masso-kinésithérapie pour garantir la sécurité des patients et la qualité des soins." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM3019.
The profession of physiotherapist is located at a crossroads. Ongoing reforms lead to questioning the knowledge and skills taught physiotherapists to ensure patient safety and quality of care. It was sought to know the origin of knowledge in physiotherapy devices and evaluate teaching and ownership of such knowledge by students and health professionals. The study results show that the differences are expected to skills related to teaching methods and assessment used by teachers in initial training and continuing education. It appears that the teaching methods used by teachers are often based on a theoretical foundation behaviorist model evaluation and control practices that prevent access dogmatic thinking and practice "complex" care. Training of physiotherapists does not optimize the skills development of reflexivity, critical thinking and innovation needed in the human relationship of care and patient safety ideal. This thesis shows the major interest to carry out physiotherapy lessons by teachers and researchers who think, write, discoursing, act differently trainers in initial training and continuing education. It is therefore essential for patient safety and quality of care that initial training and continuing education in physiotherapy are carried out within the framework of a discipline physiotherapy under the responsibility of teachers researchers in physiotherapy
Alhadeff-Jones, Michel. "Education, critique et complexité : modèle et expérience de conception d'une approche multiréférentielle de la critique en Sciences de l'éducation." Paris 8, 2007. http://www.theses.fr/2007PA082800.
Taking as a starting point, the diversity of conceptions of critique developed in the academic field (in philosophy, sociology, literature, esthetics, etc. ) this thesis aims to reconsider the assumptions, which ground the understanding of this notion and the fragmentation of its study in Educational Sciences. Based on a constructivist, complex and multireferential epistemology, two perspectives are proposed. First, notions associated to the idea of critique are macro-conceptualized and organized through a model (teleology, ecology, ontology, fonctiology and genealogy of critique). Second, the biographical experience of the author is considered in order to make explicit the learning involved in the process of conjugating heterogeneous conceptions of critique. Such an approach provides a point of view allowing for a consideration of both the plural development of critical frames of thought and the development of those who participate in their production
Amitrano, David. "Complexité et Dynamique de l'endommagement et de la rupture,Mécanique, sismicité et invariance d'échelle des objets géologiques." Habilitation à diriger des recherches, Institut National Polytechnique de Lorraine - INPL, 2005. http://tel.archives-ouvertes.fr/tel-00173641.
Lehoux-Fleury, Catherine. "L'influence de la reconnaissance sur la puissance d'agir : une approche biographique de personnes en situation de vulnérabilité." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD085/document.
This PhD thesis studies the mechanisms which play a role in the development of the empowerment of people in a vulnerable situation. To this end, we base our approach on previous works in sociology, philosophy, linguistics, and also on our professional experiences in the socio-educative area which allowed us to collect testimonies of social workers and their patients.The author thus proceeded to twelve conversational exchanges with people with disabilities or in situations of precariousness. These exchanges are transcribed into an annex, which constitutes the second volume of this thesis, while the first volume provides their analysis via biographical research tools (socianalysis stemming from institutional analysis, analysis via Walter R. Heinz's categories : an analysis framework adapted by Christine Delory-Momberger). What is more, our experience is summarized and analyzed here via a professional investigation narrative account. We also show how a « Third Place » (a group of exchanges of practices) was used in order to, to quote Edgar Morin, « unfold the complexity » of the biographical approach and of the issue of the researcher’s implication.The entanglements between empowerment and social recognition are here embodied, in this research, by each person we interviewed. On this occasion, we revisit in particular some thoughts by Blaise Pascal, Hegel, Hannah Arendt, and the works of Paul Ricoeur, Axel Honneth, and Emmanuel Renault. This theoretical approach is accompanied by two concrete interactions with the CPAM (the main institution of the French Health System) and a group home for people with disabilities : We illustrate how, via the junction of our university point of view and our sensibility as a social worker, we have been able to convince these two institutions to adapt their approach and their perspectives
Ilcinkas, David. "Complexité en espace de l'exploration de graphes." Phd thesis, Université Paris Sud - Paris XI, 2006. http://tel.archives-ouvertes.fr/tel-00412139.
Dans la première partie de la thèse, nous nous attachons à l'étude de l'exploration ``sans assistance'', c'est-à-dire lorsque l'entité mobile ne possède aucune information sur le graphe à explorer. Dans ce contexte, nous prouvons plusieurs bornes inférieures et supérieures sur la quantité de mémoire nécessaire et suffisante à l'entité pour explorer tous les graphes. En particulier, nous montrons que l'algorithme très simple de parcours en profondeur d'abord est optimal en mémoire lorsque la complexité est exprimée en fonction du degré et du diamètre.
Dans la seconde partie de la thèse, nous nous attachons à l'étude de l'exploration ``avec assistance''. Nous considérons un modèle supposant l'existence d'un oracle ayant une connaissance exhaustive du graphe exploré, et capable d'aider l'entité mobile en lui fournissant de l'information. Nous nous intéressons ainsi à la quantité minimale d'information (mesurée en nombre de bits) que l'oracle doit fournir à l'entité pour permettre l'exploration. Cette information peut être soit donnée directement à l'entité, soit codée sur les sommets du graphes.
Li, Vigni Guido Fabrizio. "Les systèmes complexes et la digitalisation des sciences. Histoire et sociologie des instituts de la complexité aux États-Unis et en France." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEH134/document.
How to think the relationship between contemporary scientific cultures and the rising usage of computer in the production of knowledge ? This thesis offers to give an answer to such a question, by analyzing historically and sociologically a scientific domain founded by the Santa Fe Institute (SFI) in the 1980s in the United States : the « complex systems sciences » (CSS). Become well-known thanks to popular books and articles, CSS have spread in Europe and in other countries of the world in the course of the 1990s and the 2000s. This work proposes a history of the foundation of this domain, by focussing on the SFI and on the French Complex Systems National Network. With a sociological take rooted into Science & Technology Studies and into pragmatism, it then asks some questions about the socio-epistemic status of such a domain, about the modalities of production of evidence as they are employed in the context of digital simulation and, finally, about the epistemic engagements hold by complexity specialists. Empirical material – composed by circa 200 interviews, several thousands archival pages and a small number of laboratory visits – allows us not only to improve knowledge about this field – whose language is very common today, but little studied by historians and sociologists ; it also brings us to question three current opinions in the human and social sciences literature regarding digital sciences. That is : 1) that the computer produces more and more interdisciplinary knowledge, 2) that it gives birth to a new type of knowledge which needs an entirely new epistemology to be well understood and 3) that it inevitably brings about neoliberal visions of the world. Now, this thesis deconstructs these three forms of technological determinism concerning the effects of computer on scientific practices, by showing firstly that, in digital sciences, the interdisciplinary collaborations are not made without any effort and in a symetrical and pacific way ; secondly, that CSS’ researchers mobilize a kind of evidence production techniques which are well known in other disciplines ; and, thirdly, that scientists’ epistemic engagements can take (neo)liberal forms, but also other forms that depart from neoliberalism or that stand against it
Crozier, Sophie. "Le pari éthique de la complexité : Action médicale dans le champ des accidents vasculaires cérébraux graves." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00815733.
Robin, Nelly. "Migrations, observatoire et droit. Complexité du système migratoire ouest-africain. Migrants et normes juridiques." Habilitation à diriger des recherches, Université de Poitiers, 2014. http://tel.archives-ouvertes.fr/tel-01071279.
Gavoille, Cyril. "Complexité mémoire du routage dans les réseaux distribués." Lyon, École normale supérieure (sciences), 1996. http://www.theses.fr/1996ENSL0015.
Brandão, Eduardo. "Complexity Methods in Physics-Guided Machine Learning." Electronic Thesis or Diss., Saint-Etienne, 2023. http://www.theses.fr/2023STET0062.
Complexity is easy to recognize but difficult to define: there are a host of measures of complexity, each relevant for a particular application.In Surface engineering, self-organization drives the formation of patterns on matter by femtosecond laser irradiation, which have important biomedical applications. Pattern formation details are not fully understood. In work leading to two publications [1,2], via a complexity argument and a physics-guided machine learning framework, we show that the severely constrained problem of learning the laser-matter interaction with few data and partial physical knowledge is well-posed in this context. Our model allows us to make useful predictions and suggests physical insights.In another contribution [3] we propose a new formulation of the Minimum Description Length principle, defining model and data complexity in a single step, by taking into account signal and noise in training data. Experiments indicate that Neural Network classifiers that generalize well follow this principle.In unpublished work, we propose Taylor entropy, a novel measure of dynamical system complexity which can be estimated via a single SEM image. This approach could facilitate learning the physical process in new materials through domain adaptation.This thesis paves the way for a unified representation of complexity in data and physical knowledge, which can be used in the context of Physics-guided machine learning.[1] Brandao, Eduardo, et al. "Learning PDE to model self-organization of matter." Entropy 24.8 (2022): 1096.[2] Brandao, Eduardo, et al. "Learning Complexity to Guide Light-Induced Self-Organized Nanopatterns." Physical Review Letters 130.22 (2023): 226201.[3] Brandao, Eduardo, et al. "Is My Neural Net Driven by the MDL Principle?." Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Cham: Springer Nature Switzerland, 2023
Baptiste, Philippe. "Résultats de complexité et programmation par contraintes pour l'ordonnancement." Habilitation à diriger des recherches, Université de Technologie de Compiègne, 2002. http://tel.archives-ouvertes.fr/tel-00124998.
this manuscript, we consider several scheduling problems with a variety of different environments.
The two parts of this manuscript provide an overview of two of our major research interests. The first
part (Chapters 2 to 5) is dedicated to polynomial time solutions of equal{processing{time scheduling
problems. The second one (Chapters 7 to 15) deals with the application of Constraint Programming
to scheduling. These two parts re
ect the balance we have tried to keep between theoretical and
more applied research.
Although all the topics covered in this manuscript are related to scheduling, Parts 1 and 2 are
dedicated to very different aspects of scheduling. Some few results discussed in Part 1 are occasionally
used in Part 2 but they are independent one from another. In the following, we brie
y review the
content Parts 1 and 2. More detailed introductions are provided in Sections 1 and 7 respectively.
Francois, Nicolas. "Alignement, séquence consensus, recherche de similarités : complexité et approximabilité." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2005. http://tel.archives-ouvertes.fr/tel-00108020.
concernant la comparaison de séquences biologiques. Nous nous pla¸cons successivement du point de vue de
chacune des trois principales théories de la complexité algorithmique : la NP-complétude, l'approximabilité
et la complexité paramétrique.
Dans un premier temps, nous considérons plusieurs formes du problème de l'extraction des motifs communs
à un ensemble de séquences donné. Les motifs communs permettent, en pratique, de classifier les protéines
grâce à leur structure primaire, par exemple en fabriquant des séquences consensus.
En particulier, le problème de la médiane (resp. du centre) pour la distance d'édition consiste à rechercher
une séquence consensus minimisant la somme (resp. le maximum) des distances d'édition la séparant de
chacune des séquences prises en entrée. Nous affinons les résultats connus sur la difficulté de chacun de ces
deux problèmes : nous montrons, par exemple, qu'ils sont tous les deux W[1]-difficiles lorsqu'on les
paramétrise par le nombre des séquences étudiées et ce, même dans le cas d'un alphabet binaire. Nous
considérons également le problème de la plus longue sous-séquence commune. Ce problème a été
exhaustivement étudié dans sa forme usuelle. Or, on trouve dans la nature des séquences d'ADN et d'ARN
circulaires qu'il est utile de comparer. Dans ce mémoire, nous menons à bien la première étude du problème
de la plus longue sous-séquence commune à plusieurs séquences circulaires et/ou non orientées.
Dans un second temps, nous considérons plusieurs problèmes liés à la recherche de similarités approchées
entre séquences biologiques. C'est dans ce domaine que l'application de l'informatique à la biologie
moléculaire a été la plus fructueuse. En pratique les similarités permettent de déterminer les propriétés des
molécules nouvellement séquencées à l'aide de celles des séquences déjà annotées. En effet, une similarité en
séquence entraîne généralement une similarité en structure ou en fonction.
La plupart des nombreux logiciels dédiés à la détection de similarités locales, mettent en oeuvre des filtres
heuristiques : deux portions de séquences ne possédant pas certains motifs spécifiques en commun sont
considérées d'emblée comme dissimilaires. Le choix des motifs conditionne la sensibilité et la sélectivité du
filtre associé. Dans ce mémoire nous considérons un certain type de motifs appelé graine. Il s'agit en fait de
sous-chaînes à trous.
Nous étudions plusieurs problèmes algorithmiques liés à la conception de bonnes graines. En particulier,
nous montrons que le problème suivant est NP-difficile : étant donnés deux entiers naturels k, m et une
graine, décider si le filtre associé est sans perte lorsque l'on restreint la notion de similarité aux paires de
mots de même longueur m, séparés par une distance de Hamming au plus k. Notons que plusieurs
algorithmes exponentiels ont été proposés pour des généralisations de ce problème.
Richeton, Thiebaud. "Dynamique et complexité de la déformation plastique : étude par émission acoustique." Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00118329.
Aubert, Clément. "Logique linéaire et classes de complexité sous-polynomiales." Phd thesis, Université Paris-Nord - Paris XIII, 2013. http://tel.archives-ouvertes.fr/tel-00957653.
Araujo, Julio. "Coloration et convexité dans les graphes." Phd thesis, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00732919.
Vaiter, Samuel. "Régularisations de Faible Complexité pour les Problèmes Inverses." Phd thesis, Université Paris Dauphine - Paris IX, 2014. http://tel.archives-ouvertes.fr/tel-01026398.
Salah, Abdellatif. "Schémas de décodage MIMO à complexité réduite." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00682392.
The use of MIMO antennas is a technique that allows to exploit in a very effective way the spatial and temporal diversity in certain systems of communication, of which the wireless communication systems. The main advantage of this technique is a good spectral efficiency. Nowadays, the mobile radio channel is increasingly used to transmit all type of information and methods allowing a more effective use of the spectrum have a fundamental importance. Today, the well-known reception algorithms are very complex, even as regards the MIMO systems with the simplest space-time codes. This complexity remains one of the main obstacles in the real exploitation of this technique. This thesis presents a detailed study of the complexity, the performance and the most interesting aspects of the behavior of the reception algorithms for MIMO decoding. This study presents a quick mean for a possible architectural conception adapted to this problem. Among the subjects presented in this thesis, an in-depth study of the performance and the complexity of these algorithms was realized, having for objective to acquire enough knowledge to be able to choose, among the large number of known algorithms, the best adapted to every particular system. Improvements in the known algorithms were also proposed and analyzed
Salah, Abdellatif. "Schémas de décodage MIMO à Complexité Réduite." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00682392.
Derhy, Nicolas. "Multicoupes et sous-graphes induits : complexité et algorithmes." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2008. http://tel.archives-ouvertes.fr/tel-00367626.
Pechoux, Romain. "Analyse de la complexité des programmes par interprétation sémantique." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2007. http://tel.archives-ouvertes.fr/tel-00321917.
Après avoir rappelé brièvement la notion de quasi-interprétation ainsi que les différentes propriétés et caractérisations qui en découlent, nous présentons les différentes avancées obtenues dans l'étude de cet outil : nous étudions le problème de la synthèse qui consiste à trouver une quasi-interprétation pour un programme donné, puis, nous abordons la question de la modularité des quasi-interprétations. La modularité permet de diminuer la complexité de la procédure de synthèse et de capturer un plus grand nombre d'algorithmes. Après avoir mentionné différentes extensions des quasi-interprétations à des langages de programmation réactif, bytecode ou d'ordre supérieur, nous introduisons la sup-interprétation. Cette notion généralise la quasi-interprétation et est utilisée dans des critères de contrôle des ressources afin d'étudier la complexité d'un plus grand nombre d'algorithmes dont des algorithmes sur des données infinies ou des algorithmes de type diviser pour régner. Nous combinons cette notion à différents critères de terminaison comme les ordres RPO, les paires de dépendance ou le size-change principle et nous la comparons à la notion de quasi-interprétation. En outre, après avoir caractérisé des petites classes de complexité parallèles, nous donnons quelques heuristiques permettant de synthétiser des sup-interprétations sans la propriété sous-terme, c'est à dire des sup-interprétations qui ne sont pas des quasi-interprétations. Enfin, dans un dernier chapitre, nous adaptons les sup-interprétations à des langages orientés-objet, obtenant ainsi différents critères pour contrôler les ressources d'un programme objet et de ses méthodes.
LACROSE, Véronique. "Réduction de la complexité des contrôleurs flous : applications à la commande multivariable." Phd thesis, INSA de Toulouse, 1997. http://tel.archives-ouvertes.fr/tel-00010030.
Schwoerer, Jean. "Études et implémentation d'une couche physique UWB impulsionnelle à bas débit et faible complexité¶." Phd thesis, INSA de Rennes, 2006. http://tel.archives-ouvertes.fr/tel-00638640.
Muhammad, F. "Ordonnancement de tâches efficace et à complexité maîtrisée pour des systèmes temps-réel." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00454616.
Gigleux, Sylvain. "Modélisation du transfert des pesticides du sol jusqu'à l'aquifère : étude par approches de complexité croissante - site de Montreuil-sur-Epte." Phd thesis, Université d'Avignon, 2009. http://tel.archives-ouvertes.fr/tel-00464260.
Guézo, Bernard. "Le territoire-étagé : un outil d'ingénierie pour agir sur la vulnérabilité des espaces métapolitains." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00806092.
Darties, Benoit. "Problèmes algorithmiques et de complexité dans les réseaux sans fil." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00270118.
La première partie de nos travaux s'intéresse à l'étude du problème de la diffusion d'un message émis depuis un noeud source unique vers l'ensemble des noeuds participant au réseau. Ce problème est abordé dans plusieurs modèles de communication, qui supposent tous des émissions omnidirectionnelles à portée fixée et l'existence de phénomènes d'interférences. Il en résulte l'incapacité pour un noeud donné de garantir la réception correcte de deux transmissions voisines simultanées. Nous étudions la complexité de ce problème et proposons des stratégies de résolution exactes ou avec garantie de performance.
Dans une seconde partie, l'un des modèles de communication précédemment introduits sert de support à l'étude d'un autre problème algorithmique, dont l'objet est la satisfaction de requêtes de communications. Les travaux menés sur ce problème visent à établir sa complexité ainsi que les facteurs dont elle dépend.
La dernière partie nous amène au problème de conception de réseaux sans fil. L'objectif est d'assurer une distribution de flux depuis des noeuds sources vers des noeuds clients, en minimisant le coût de l'infrastructure déployée. Les communications établies ici à l'aide d'antennes directionnelles ne sont pas sujettes aux phénomènes d'interférences. La difficulté du problème réside dans la satisfaction de contraintes de déploiement (nombre d'antennes limitées par noeud, résistance aux pannes, ...). Nous étudions la complexité de ce problème, et proposons plusieurs méthodes de résolution exactes et approchées pour des instances de taille raisonnable.
Romero, ugalde Héctor manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00869428.
Kerbrat, Olivier. "Méthodologie de conception d'outillages modulaires hybrides basée sur l'évaluation quantitative de la complexité de fabrication." Phd thesis, Ecole centrale de nantes - ECN, 2009. http://tel.archives-ouvertes.fr/tel-00439589.
Ainsi, les outillages peuvent avantageusement être conçus avec une double approche : modulaire et hybride. Les outillages sont vus non plus comme une seule pièce, mais comme un puzzle en trois dimensions, avec différents modules fabriqués séparément puis assemblés. L'approche modulaire permet de prendre en compte les différentes variantes d'une même famille de pièces à produire en facilitant un changement rapide des parties de l'outillage. L'approche hybride permet de choisir le procédé de fabrication le plus adapté pour chacun des modules de l'outillage. Nous nous sommes intéressés aux procédés d‟usinage par enlèvement de matière ainsi qu'aux procédés de fabrication rapide par ajout de matière. Ces technologies additives arrivent à maturité et, bien qu'un haut niveau de qualité soit encore délicat à obtenir, les possibilités de réalisation de formes difficiles, voire impossibles, à usiner par enlèvement de matière rendent ces procédés très attractifs.
Ce travail de thèse consiste donc en l'élaboration d'une méthodologie de conception d'outillages modulaires hybrides. Cette méthode permet, dans un premier temps, d'analyser la complexité de fabrication des outillages lors de leur conception. Dans un deuxième temps, afin de réduire la complexité de fabrication (et par conséquent, diminuer les temps et coûts de réalisation à qualité égale), une nouvelle conception de l'outillage est proposée, en appliquant les points de vue modulaire et hybride. La complexité de fabrication de ce nouvel outillage est ensuite analysée, puis comparée à la première afin de quantifier les gains induits par notre approche modulaire hybride.
Une maquette informatique a donc été développée et implémentée dans un logiciel de CAO pour mettre en évidence les possibilités d'utilisation de la méthodologie lors de la phase de conception d'outillages. Elle est testée sur différentes pièces-test et outillages industriels, en particulier dans le cadre du projet EMOA (Excellence dans la Maîtrise de l'Ouvrant Automobile haut de gamme) piloté par PSA Peugeot-Citroën.
Tourniaire, Emeric. "Problèmes NP-difficiles : approximation modérément exponentielle et complexité paramétrique." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00874599.
Ada, Anil. "Communication complexity." Thesis, McGill University, 2014. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=121119.
La complexité de communication étudie combien de bits un groupe de joueurs donné doivent échanger entre eux pour calculer une function dont l'input est distribué parmi les joueurs. Bien que ce soit un domaine de recherche naturel basé sur des considérations pratiques, la motivation principale vient des nombreuses applications théoriques.Cette thèse comporte trois parties principales, étudiant trois aspects de la complexité de communication.1. La première partie discute le modèle 'number on the forehead' (NOF) dans la complexité de communication à plusieurs joueurs. Il s'agit d'un modèle fondamental en complexité de communication, avec des applications à la complexité des circuits, la complexité des preuves, les programmes de branchement et la théorie de Ramsey. Dans ce modèle, nous étudions les fonctions composeés f de g. Ces fonctions comprennent la plupart des fonctions bien connues qui sont étudiées dans la littérature de la complexité de communication. Un objectif majeur est de comprendre quelles combinaisons de f et g produisent des compositions qui sont difficiles du point de vue de la communication. En particulier, à cause de l'importance des applications aux circuits, il est intéressant de comprendre la puissance du modèle NOF quand le nombre de joueurs atteint ou dépasse log n. Motivé par ces objectifs nous montrons l'existence d'un protocole simultané efficace à k joueurs de coût O(log^3 n) pour sym de g lorsque k > 1 + log n, sym est une function symmétrique quelconque et g est une fonction arbitraire. Nous donnons aussi des applications de notre protocole efficace à la théorie de Ramsey.Dans le contexte où k < log n, nous étudions de plus près des fonctions de la forme majority de g, mod_m de g et nor de g, où les deux derniers cas sont des généralisations des fonctions bien connues et très étudiées Inner Product et Disjointness respectivement. Nous caractérisons la complexité de communication de ces fonctions par rapport au choix de g.2. La deuxième partie considère les applications de l'analyse de Fourier des fonctions symmétriques à la complexité de communication et autres domaines. La norme spectrale d'une function booléenne f:{0,1}^n -> {0,1} est la somme des valeurs absolues de ses coefficients de Fourier. Nous donnons une caractérisation combinatoire pour la norme spectrale des fonctions symmétriques. Nous montrons que le logarithme de la norme spectrale est du même ordre de grandeur que r(f)log(n/r(f)), avec r(f) = max(r_0,r_1) où r_0 et r_1 sont les entiers minimaux plus petits que n/2 pour lesquels f(x) ou f(x)parity(x) est constant pour tout x tel que x_1 + ... + x_n à [r_0,n-r_1]. Nous présentons quelques applications aux arbres de décision et à la complexité de communication des fonctions symmétriques.3. La troisième partie étudie la confidentialité dans le contexte de la complexité de communication: quelle quantité d'information est-ce que les joueurs révèlent sur leur input en suivant un protocole donné? L'inatteignabilité de la confidentialité parfaite pour plusieurs fonctions motivent l'étude de la confidentialité approximative. Feigenbaum et al. (Proceedings of the 11th Conference on Electronic Commerce, 167--178, 2010) ont défini des notions de confidentialité approximative dans le pire cas et dans le cas moyen, et ont présenté plusieurs bornes supérieures intéressantes ainsi que quelques questions ouvertes. Dans cette thèse, nous obtenons des bornes asymptotiques précises, pour le pire cas aussi bien que pour le cas moyen, sur l'échange entre la confidentialité approximative de protocoles et le coût de communication pour les enchères Vickrey Auction, qui constituent l'exemple canonique d'une enchère honnête. Nous démontrons aussi des bornes inférieures exponentielles sur la confidentialité approximative de protocoles calculant la function Intersection, indépendamment du coût de communication. Ceci résout une conjecture de Feigenbaum et al.
Vander, Linden Marc. "Archéologie, complexité sociale et histoire des idées: l'espace campaniforme en Europe au 3e millénaire avant notre ère." Doctoral thesis, Universite Libre de Bruxelles, 2001. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211540.
Senot, Maxime. "Modèle géométrique de calcul : fractales et barrières de complexité." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00870600.