To see the other types of publications on this topic, follow the link: Informatique appliquée à la biodiversité.

Dissertations / Theses on the topic 'Informatique appliquée à la biodiversité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Informatique appliquée à la biodiversité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Saliba, Elie Mario. "Understanding and managing Zoological Nomenclature in the era of Big Data and Open Science." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS460.

Full text
Abstract:
La nomenclature est la branche de la taxonomie responsable de la création et de la gestion des noms scientifiques attribués aux catégories d’êtres vivants. Elle assure la continuité de la transmission de toutes sortes de données et de connaissances accumulées sur les taxons. Les zoologistes se réfèrent pour cela au Code International de Nomenclature Zoologique. Le Code contient les règles qui permettent de comprendre et d'appliquer correctement cette discipline. La nomenclature s'est complexifiée au fil des siècles, pour s'adapter aux changements scientifiques et technologiques. Aujourd’hui, la nomenclature joue, par l’intermédiaire des noms scientifiques, un rôle crucial dans les bases de données de biodiversité. Mais ces dernières présentent cependant des limitations en termes de modèles de données et de l’utilisation de celles-ci pour des travaux nomenclaturaux. Cette dimension de la nomenclature est explorée dans la thèse. Si les données nomenclaturales sont présentes en grande partie dans les bases de données en ligne, la discipline elle-même est restée relativement imperméable à l'informatisation. Une analyse approfondie du Code a permis d’établir une liste d’objets formels et des propriétés les accompagnant nécessaires pour modéliser les règles de cette discipline. En effet, la structure des règles du Code se veut logique et non-ambigüe, et est donc idéale pour une traduction de ces dernières en série d’algorithmes. Cette hypothèse a mené à la création d’une application web appelée Lognom, pour ‘logiciel de nomenclature’. Lognom est un logiciel basé sur des algorithmes aidant à la prise de décision en matière de nomenclature zoologique. L’application ne repose pas sur des bases de données préexistantes, mais fournit une réponse en fonction des données entrées par l'utilisateur. Ce logiciel vise à soutenir les taxonomistes dans leur gestion de la nomenclature au quotidien, en déterminant si un nom ou un travail est disponible, si les règles orthographiques ont été correctement appliquées et si toutes les exigences précédant la publication d’un nouveau nom ou d’un nouveau travail ont été respectées. Lognom permet également à l'utilisateur d’établir quel nom est le nom valide parmi plusieurs candidats préenregistrés, et la liste des synonymes qui résulte de cette détermination. Il comprend également quelques outils pour répondre à des questions diverses de nomenclature, telle que la détermination du genre grammatical d’un nom de genre. Toutes les règles du Code de nomenclature zoologique n’ont cependant pas pu être intégrées à l’application. Certaines règles reposent sur une interprétation sémantique qu’il est très complexe d’automatiser. De plus, même s’il contient quelques contrôles, Lognom est très sensible à la qualité des données fournies par ses utilisateurs. Une proposition de classification des règles est fournie, afin de mieux cerner les forces et les faiblesses du Code quant à sa possible informatisation exhaustive, ainsi que des recommandations quant à l’optimisation de son caractère logique et non-ambigu. De même, diverses questions en rapport avec la nomenclature et ses applications informatiques sont explorées, et une brève analyse expliquant les difficultés sociales liées à l’amélioration de ces règles est évoquée. Il y existe une multitude d’applications futures possibles pour les algorithmes développés lors de cette thèse. Ces perspectives incluent la possibilité de travailler collaborativement sur des projets concernant la nomenclature d’un même groupe taxonomique. Ceci pourrait conduire à établir des listes dynamiques de noms. Une modification de ces algorithmes pourraient également simuler l’impact d’une modification des règles du Code sur les noms et les travaux existants. Sur le long terme, un outil tel que Lognom pourrait conduire à la possibilité de modéliser la nomenclature dans sa totalité, et d’ouvrir la porte à une gestion plus efficace et plus coordonnée de cette discipline pluricentenaire
Nomenclature is the discipline of taxonomy responsible for creating and managing the scientific names assigned to categories of living beings. It ensures continuity in the transmission of all kinds of accumulated data and knowledge about taxa. To this end, zoologists refer to the International Code of Zoological Nomenclature. The Code contains the rules for understanding and correctly applying this discipline.Nomenclature has become increasingly complex over the centuries, to keep pace with the evolution of scientific and technological knowledge. It currently plays, through scientific names, a crucial role in biodiversity databases. However, databases have their limitations in terms of structure when it comes to nomenclatural endeavors. The role of nomenclature in databases is explored in the thesis.While nomenclatural data is largely present in online databases, the discipline itself has remained relatively impervious to computerization. An in-depth analysis of the Code enabled the creation of a list of formal objects and their properties, which are needed to model the rules of this discipline. Moreover, the structure of the Code's rules is intended to be logical and unambiguous, which makes it ideal for translating into a series of algorithms. This hypothesis led to the creation of a web application called Lognom. Lognom is an algorithm-based software that supports decision-making in zoological nomenclature. The application does not rely on pre-existing databases, but provides an answer based on data entered by the user. The software aims to support taxonomists in their day-to-day nomenclature management, by determining whether a name or work is available and whether spelling rules have been correctly applied. It can also verify whether all requirements preceding the publication of a new name or work have been met. Additionally, Lognom allows the user to establish which name is the valid name among several candidates, and the list of synonyms that results from this decision. It also includes several tools for answering various nomenclatural questions, such as the determination of the grammatical gender of a genus name. However, it has not been possible to integrate all the rules of the International Code of Zoological Nomenclature into the application. Some rules are based on semantic interpretation, which is very complex to automate. Moreover, Lognom is highly sensitive to the quality of the data supplied by its users, even if it does provide a few controls. A proposed classification of the Code’s rules is included, to better identify the strengths and weaknesses of the Code in terms of its possible complete computerization. Recommendations for the optimization of its logical and unambiguous character are also mentioned. Similarly, various issues relating to nomenclature and its computer applications are explored, as well as a brief analysis of the social difficulties that might impede the improvement of these rules. There are still many possible future applications for the algorithms developed for Lognom. These include the possibility of working collaboratively on projects concerning the nomenclature of q given taxonomic group. This could lead to the creation of dynamic lists of names: Furthermore, the algorithms should be able to simulate the impact of changes in the rules of the Code on existing names and works. In the long term, a tool such as Lognom could enable the possibility of modeling nomenclature in its entirety, opening the door to more efficient and coordinated management of this centuries-old discipline
APA, Harvard, Vancouver, ISO, and other styles
2

Blondeau, Sylvain. "Développement d'une plateforme informatique hétérogène appliquée à la pharmacognosie." Thesis, Orléans, 2011. http://www.theses.fr/2011ORLE2004.

Full text
Abstract:
La pharmacognosie, science multidisciplinaire étudiant les produits naturels, n'a eu de cesse de s'adapter et d'évoluer parallèlement aux autres disciplines, en particulier les techniques d'analyse chimique et les technologies de l'information. De nouvelles approches complémentaires, comme la pharmacognosie inverse allant des molécules vers les organismes sources, un cheminement en sens inverse de la pharmacognosie, ont été développées. Les données nécessaires à ces études n'ont jamais été aussi nombreuses et hétérogènes. Molécules, activités, cibles, organismes sources et leurs usages traditionnels, sont autant d'informations essentielles à la pharmacognosie. Le but de cette thèse a été de développer une plateforme informatique, regroupant toutes ces informations diverses au sein d'une vaste base de données, accompagnée d'une interface web dédiée et d'outils de chémoinformatique et de fouille de données. Parallèlement, un enrichissement constant de cette base a été réalisé. Cette plateforme permet de rechercher et de consulter les informations, mais également de les croiser afin d'en faire émerger de nouvelles connaissances. Réellement optimisée pour la pharmacognosie, elle simplifie et améliore l'étude des produits naturels en permettant une approche sur de multiples niveaux (ethnopharmacologie, botanique, chimie), offrant de nouvelles possibilités d'interaction entre les données de ces différents domaines comme l'organism hopping (sauts entre organismes), une approche originale de comparaison des organismes selon leurs profils chimiques
Pharmacognosy, a multidisciplinary science which studies natural products, has greatly evolved in parallel with other disciplines particularly analytical chemistry and information technologies. New complementary approaches like reverse pharmacognosy, from molecules to source organisms (in contrary of pharmacognosy), have been developed. Data necessary for these studies are overwhelming and heterogeneous. Molecules, activities, targets, organisms, traditional uses, are some of essential information for pharmacognosy. The main goal of this thesis was to develop an information platform, including a large database, to collect the diverse data, along with a specific web interface and also mining and cheminformatics tools. A constant enrichment of this database has also been realized. This platform allows to query and browse data, but also to cross them in order to discover new knowledge. Truely optimised for pharmacognosy, it makes easier and enhances the study of natural products, due to a multi-level approach (ethnopharmacology, botany, chemistry). It offers new possibilities of interaction between data from different domains, such as organism hopping, a new concept of organism comparisons according to their chemical profiles
APA, Harvard, Vancouver, ISO, and other styles
3

Saraydaryan, Jacques. "Détection d'anomalies comportementales appliquée à la vision globale." Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0132/these.pdf.

Full text
Abstract:
Face à l’évolution et la croissance de nouvelles attaques, les systèmes de protection classiques (farewalls, IDS) sont devenus rapidement insuffisants pour contrôler ces menaces. Des scénarios d’attaques complexes tentent d’être assimilés à des comportements d’usage normaux du SI afin de contourner les défenses locales. Nous proposons dans nos travaux une méthode de détection d’anomalies comportementale portant sur la vision globale des SI. En intégrant les contraintes liées à l’observation de l’ensemble d’un SI (hétérogénéité, volume de données), nous avons bâtis des profils statistiques d’usage du système et mis en place une méthode de détection d’anomalies. La mise à jour continuelle de ces profils nous permet de suivre l’évolution des comportements légitimes des utilisateurs et de limiter le nombre de fausses alertes. Outre la détection d’anomalies comportementales, nos travaux ont délimité le périmètre d’observation des comportements en se focalisant sur les démarches des attaquants
Ln light of the increase in new threads and attacks, security components (Firewall, IDS) are becoming inadequate. Lndeed, complex attack scenarios tend to be confused with normal system behaviors in arder to by-pass local security components. From this perspective, we provided a new method of behavioral anomaly detection based on a global view of the system throughout our work. By taking into account the observation constraints of the entire IS (heterogeneity, high data volume), we built a statistical profile of the system and developed an anomaly detection method that showed that the continuous update of this profile allows us to follow the evolution of legitima te user behaviors and reduces false alarms. Thus, by focusing on the attacker's strategy, our works determined the observation perimeter of system behaviors to detect behavioral anomalies
APA, Harvard, Vancouver, ISO, and other styles
4

Gamoudi, Oussama. "Optimisation adaptative appliquée au préchargement de données." Paris 6, 2012. http://www.theses.fr/2012PA066192.

Full text
Abstract:
Les mémoires caches ont été proposées pour réduire le temps d'accès moyen aux données et aux instructions. Ces petites mémoires permettent de réduire significativement la latence moyenne des accès mémoire si la majorité des données accédées sont conservées dans le cache. Toutefois, les caches ne permettent pas d'éviter les défauts de cache dus aux premiers accès aux blocs mémoire. Le préchargement de données est une solution qui a été proposée pour optimiser la performance du cache en anticipant la demande à la mémoire des données nécessaires au processeur. L'efficacité du préchargement repose sur sa capacité à détecter les données à précharger et surtout à les précharger au bon moment. Un préchargement réalisé trop tôt peut être évincé avant son référencement ce qui risque de polluer le cache et d'occuper la bande passante, tandis qu'un préchargement lancé trop tard masque seulement une partie de la latence mémoire. De nombreuses techniques de préchargement logicielles et matérielles ont été implémentées dans les architectures des processeurs contemporains. Le préchargement est bénéfique pour certains programmes lorsque les données préchargées sont référencées par le processeur. Toutefois, le préchargement peut être contre-productif pour d'autres programmes en polluant le cache, ou en mobilisant la bande passante au détriment des accès mémoires réguliers. De plus, l'utilité du préchargement varie tout au long de l'exécution d'une application, à cause des phases existantes dans un programme et du comportement des applications exécutées. Il est donc important de contrôler les requêtes de préchargement afin de tirer profit de ce dernier tout en réduisant son effet négatif. Pour adapter dynamiquement le préchargement de données, on peut chercher à capturer à l'exécution les phases d'un programme, ainsi que les interactions avec les programmes exécutés simultanément. Certains événements dynamiques (connus à l'exécution) tels que le nombre de défauts de cache L1/L2, le nombre de branchements exécutés, etc. Peuvent caractériser le comportement dynamique des applications prises individuellement ou exécutées simultanément. Les architectures actuelles incluent des compteurs matériels permettant de comptabiliser le nombre d'occurrences de certains événements au cours de l'exécution. Ces compteurs permettent d'obtenir des informations sur le comportement dynamique des applications. Dans ce travail, nous avons montré qu'il existe des événements capables de discriminer les intervalles d'exécution pendant lesquels le préchargement est bénéfique de ceux où il ne l'est pas. Nous avons montré également que l'espace des événements peut être partitionné en régions telles que plus de 90% des vecteurs d'événements de ces régions aboutissent au même effet de préchargement. Nous avons proposé ensuite, une nouvelle approche permettant d'exploiter la corrélation entre les événements d'exécution et l'efficacité de préchargement afin de filtrer à l'exécution les requêtes de préchargement selon leurs efficacités: celles qui sont jugées efficaces sont lancées et celles qui s'avèrent inutiles sont invalidées. Enfin, nous avons présenté une évaluation du filtre proposé sur différente architectures (monoprocesseur exécutant un seul programme, SMT, et multiprocesseurs) afin de mettre en évidence l'impact de la variation de l'environnement d'exécution et l'interaction des programmes exécutés simultanément sur l'utilité du préchargement. Le filtre proposé a montré qu'il est capable de tirer profit du préchargement tout en réduisant son effet négatif
Data prefetching is an effective way to bridge the increasing performance gap between processor and memory. Prefetching can improve performance but it has some side effects which may lead to no performance improvement while increasing memory pressure or to performance degradation. Adaptive prefetching aims at reducing negative effects of prefetching while keeping its advantages. This paper proposes an adaptive prefetching method based on runtime activity, which corresponds to the processor and memory activities retrieved by hardware counters, to predict the prefetch efficiency. Our approach highlights and relies on the correlation between the prefetch effects and runtime activity. Our method learns all along the execution this correlation to predict the prefetch efficiency in order to filter out predicted inefficient prefetches. Experimental results show that the proposed filter is able to cancel thenegative impact of prefetching when it is unprofitable while keeping the performance improvement due to prefetching when it is beneficial. Our filter works similarly well when several threads are running simultane-ously which shows that runtime activity enables an efficient adaptation of prefetch by providing information on running-applications behaviors and interactions
APA, Harvard, Vancouver, ISO, and other styles
5

Yesse, Thierry. "Etude du parallélisme massif appliquée à la visualisation interactive de grandes bases de données scientifiques." Rouen, 1998. http://www.theses.fr/1998ROUES086.

Full text
Abstract:
Un moyen de validation et d'interprétation des résultats de calcul numérique intensif est la visualisation graphique. Les exigences de plus grandes précisions conduisent à générer et à traiter des masses importantes de données de l'ordre de plusieurs centaines de millions à quelques dizaines de milliards d'informations et ce, dans des délais courts. Nous avons proposé différents moyens et méthodes permettant d'accélérer le processus de visualisation graphique sur machines à parallélisme massif. Cela va de l'acquisition des données sur disque, à leur traitement où le volume de données peut être bien supérieur à l'espace mémoire, jusqu'au moyen pratique d'appréhender les résultats affichés. Ainsi, nous avons étudié dans un premier temps les moyens de mieux exploiter le potentiel de la machine parallèle ; puis, dans un second temps nous avons complété la visualisation interactive par le traitement des grandes bases de données. C'est après avoir analysé et quantifié les performances des diverses possibilités de répartition en mémoire distribuée, en ayant pris connaissance des différents modèles de représentation visuelle de données scientifiques, que nous avons proposé le meilleur compromis pour placer les données en mémoire pour la visualisation graphique : la 7-views. La base de données est un ensemble d'objets ou DPO dans un espace topologique de processeurs virtuels. L'activité de ces processeurs est régie par l'évolution dynamique des DPO suite aux requêtes de l'utilisateur. L'introduction des processus d'équilibrage de charge à différents niveaux du traitement graphique, a permis de diviser jusqu'a 300 certains temps de traitement sur la MP-1 de 16 k processeurs. Nous avons proposé de nouveaux algorithmes principalement l'expansion-pixel et l'expansion-objet. Les modèles volumiques Maille et Voxelise présentent des qualités particulières en visualisation scientifique. Ils nécessitent néanmoins différents post-traitements pour répondre à l'interactivité des données de grandes tailles. Nous avons développé, dans cette seconde partie du document, un moyen de gérer les données dans une mémoire virtuelle partagée. Celui-ci s'articule autour d'une décomposition automatique des données à la fois en cellules et en niveaux de détails. Enfin, l'exploitation systématique d'un double fenêtrage, permet des investigations plus pratiques et plus conviviales de la masse d'information : il s'agit du concept de fenêtres duales.
APA, Harvard, Vancouver, ISO, and other styles
6

Deguet, Joris. "Intégration de l'émergence au sein des systèmes multi-agent : une étude appliquée à la recherche heuristique." Grenoble 1, 2008. http://www.theses.fr/2008GRE10051.

Full text
Abstract:
L'émergence et les systèmes multi-agent sont deux domaines aux problématiques proches. A travers l'étude de l'émergence dans le cadre des systèmes multi-agent, notre travail consiste à envisager leur principal point commun: la recherche d'un avantage collectif gagné grâce aux interactions entre les agents, quand le résultat global du système qui découle de l'exécution des agents est attribuable à l'interaction. Cette situation est souvent décrite comme celle d'un tout supérieur à la somme de ses parties. Une contribution de cette thèse est d'identifier des interactions dont l'impact peut être évalué à travers la comparaison de systèmes utilisant ou non ces interactions. Nous définissons de tels gains collectifs pour la résolution de problèmes par recherche heuristique dans un modèle d'agents hiérarchique. Ce travail inclut une modélisation multi-agent de ce type de recherche permettant de mettre en évidence des gains collectifs que nous appelons synergies. Trois synergies sont envisagées: la synergie entre des heuristiques travaillant sur le même problème, celle entre des problèmes proches et la synergie entre un utilisateur et le système de recherche artificiel. Ces possibilités de synergies sont à replacer dans le cadre de la discussion concernant l'émergence. Dans ce cadre, certaines populations d'heuristiques correspondent à l'idée de ``vrai composite'' qui désigne des systèmes composés dont le résultat est attribuable aux interactions entre composants et non à leur composition. L'interaction entre niveaux globaux et locaux s'envisage également naturellement à travers les niveaux induits par l'organisation hiérarchique de notre modèle. C'est en ce sens que le travail fourni contribue à l'étude de l'émergence: par l'étude des possibilités de définition offertes par un modèle multi-agent
Emergence and multi-agent systems are two domains with share similar problems. Through the study of emergence in the context of multi-agent systems, this work is centred on their principal common point; the search for a collective advantage gained through the interaction among the agents, when the global result is due to interaction. This situation is often summarized by a whole that is more than the sum of its parts. One contribution of this thesis is identifying interactions whose impact can be evaluated through the side-by-side comparison of systems including these interactions or not. Such collective benefits are defined for problem-solving by a heuristic search with a hierarchical multi-agent model. This work includes a multi-agent model of that kind of search that identifies collective benefits, which are called synergies. Three kinds of synergies are considered: the synergy between heuristics searching the same problem, the one between similar problems, and the synergy between a human user and the artificial search system. These possible synergies are included in the discussion about emergence. In this framework, some heuristic populations match the idea of a ``true composite'' that is a composed system whose result is due to interactions between components and not to its composition. The interaction between local and global levels fits in the levels induced by the model's hierarchical organisation. This way, a contribution to the study of emergence is given, by the definition possibilities that a multi-agent model allows for emergence
APA, Harvard, Vancouver, ISO, and other styles
7

Terrissa, Saddek Labib. "Vision bio-fondée appliquée à l'analyse d'images." Le Havre, 2006. http://www.theses.fr/2006LEHA0001.

Full text
Abstract:
La reconnaissance de l'environnement par un être vivant passe forcément par la rétine. Cette partie du système nerveux central réalise beaucoup de traitements et notamment la détection du mouvement et l'extraction des caractéristiques dynamiques d'une scène. Ces aspects n'ont pas atteint le niveau de développement que les traitements statiques en vision artificielle. C'est pourquoi, compte tenu de son intérêt, nous avons contribué à l'élaboration d'un prototype générique de rétine artificielle d'inspiration biologique que nous avons appelé Rétina. Il est fondé sur un réseau de neurones artificiels, organisé de manière à simuler la variation radiale de l'acuité visuelle (vision fovéale). La mise en œuvre de neurones analogiques et impulsionnels nous a permis d'encoder les informations. A partir des signaux impulsionnels issus de la Rétina, nous avons analyser et détecter la variation des niveaux de gris dans des images dynamiques. Ensuite, nous avons effectué une reconstitution de ces images en utilisant des techniques des réseaux de neurones et de traitement de signal
The environment recognition goes inevitably through the retina of alive beings. This component is a part of the central nervous system witch performs many processing, especially in motion detection and features extraction of a scene. These aspects are not reach the development level compared with static processing in artificial vision. For these reasons, we are developed a generic prototype of artificial retina inspired from biology witch we are titled Retina. This system is based on artificial neural network organised to simulate the radial variation of the acuity. The information is encoded through the implementation of analogue and impulse neurons. These retinal signal impulses are analysed in order to detect the variation of grey level in dynamic images. Moreover, we reconstitute these images using neural networks techniques and signal processing
APA, Harvard, Vancouver, ISO, and other styles
8

Shwartz, Assaf. "Les interactions entre la biodiversité et les citadins au cœur d'une métropole." Paris, Muséum national d'histoire naturelle, 2012. http://www.theses.fr/2012MNHN0005.

Full text
Abstract:
La conservation urbaine est une discipline intégrative qui explore les villes, la biodiversité, les personnes et leur environnement. Le rôle que joue la biodiversité dans la vie des gens a rarement été étudié. Dans cette thèse, j'ai exploré l'interaction des personnes-biodiversité dans de petits jardins publics à Paris. J’ai trouvé que les jardins peuvent accueillir une biodiversité riche, renforçable par certaines pratiques de gestion. Mais, si les gens sont très intéressés par la découverte de cette diversité, parfois synonyme de bien-être, ils démontrent de pauvres capacités à expérimenter et même à remarquer cette biodiversité. Cela met en évidence un paradoxe personnes-biodiversité. La séparation des personnes et de la nature dans les villes modifie leur rapport avec la biodiversité en limitant leur capacité à expérimenter la qualité de la nature. Participer à des programmes d'éducation de conservation, peut aider à prévenir cette extinction de l'expérience au niveau local
Urban conservation is emerging as an integrative discipline that explores cities, biodiversity, people and their environment. However, the role that biodiversity plays in people’s life has rarely been investigated. In this thesis, I explored the people-biodiversity interaction in small public gardens in Paris (France). I found that gardens can host rich biodiversity, which can be enhanced by certain management practices. However, while people were highly interested in discovering this diversity and related it to their well-being, they demonstrated poor capabilities to experience this diversity and in fact did not notice it. This highlights a people-biodiversity paradox, which could be related to the extinction of experience. The separation of people from nature in cities modifies people’s relation with biodiversity by limiting abilities to experience the quality of nature. Participating in conservation education programs can help avert this extinction of experience locally
APA, Harvard, Vancouver, ISO, and other styles
9

Chenouard, Raphaël. "Résolution par satisfaction de contraintes appliquée à l'aide à la décision en conception architecturale." Paris, ENSAM, 2007. http://www.theses.fr/2007ENAM0041.

Full text
Abstract:
La conception architecturale de systèmes mécaniques et énergétiques permet d’étudier la faisabilité de concepts préalablement choisis pendant la phase de recherche de concepts. Elle fait partie de la phase de conception préliminaire et son achèvement vise à définir l'architecture globale qui sera étudiée pendant la phase de conception détaillée d’un produit. Les principales caractéristiques d'un produit (dimensions, choix de composants, de formes, de topologies ou de matériaux) sont alors fondamentales à ce stade de la conception. La conception architecturale nécessite aussi la prise en compte des comportements physiques et des interactions du produit, de ses composants et des milieux extérieurs, de critères économiques, environnementaux, etc. Suivant les exigences du cahier des charges fonctionnel. Le concepteur définit un modèle mathématique exprimant cette connaissance liée au produit. Ce modèle peut être traité à l’aide d’un solveur de Problèmes de Satisfaction de Contraintes numériques (CSP). Ce type de solveur traite de manière générique des problèmes formulés à l'aide de contraintes, de variables et de domaines. Nous proposons de nouveaux algorithmes et de nouvelles heuristiques qui prennent en compte des besoins spécifiques au concepteur en conception préliminaire, comme : la classification des variables, les précisions relatives aux valeurs de certaines variables, les contraintes par morceaux. Les études de faisabilité de plusieurs systèmes mécaniques et énergétiques ont été réalisées avec succès. Les nouveaux algorithmes ont permis de diminuer significativement les temps de calculs, mais ils ont aussi permis d’améliorer la qualité des solutions calculées au regard des besoins du concepteur
The embodiment and conceptual design phases of mechanical and energetic systems are concerned with preliminary design. The embodiment design phase aims at investigating the feasibility of concepts emerging from conceptual design. Embodiment achieves to make a decision concerning the main features of the architecture of a product, which will be detailed in the next design phase. The main characteristics of the product are relating to dimensions, choices of components, shapes, topologies or materials. Decisions can better be supported by carrying out models which mainly take into consideration functional specifications and physical behaviors, namely a mathematical definition of the designer knowledge. These models may be processed using a numerical Constraint Satisfaction Problem (CSP) solver. CSP solvers are based on generic algorithms suitable for the numerical treatment of problems regarded as sets of constraints, variables and domains. Through these models, designers aim at investigating design architectures, i. E. They have to match up values with the main variables of the problem (design variables and decision variables). We propose several new heuristics and algorithms taking into account some specific difficulties relating to preliminary design problems. This approach concerns the classification and relative precision of variables and piecewise constraints. The feasibility studies of several mechanical and energetic systems have been investigated. These new algorithms drastically decrease the calculation time of the numerical treatment, and also improves the quality of the computational results
APA, Harvard, Vancouver, ISO, and other styles
10

Salinesi, Camille. "L'Ingénierie des Exigences appliquée aux Systèmes d'Information." Habilitation à diriger des recherches, Université Panthéon-Sorbonne - Paris I, 2010. http://tel.archives-ouvertes.fr/tel-01003149.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Lavaud, Gael. "Optimisation robuste appliquée au crash automobile." Ecully, Ecole centrale de Lyon, 2007. http://bibli.ec-lyon.fr/exl-doc/TH_T2092_glavaud.pdf.

Full text
Abstract:
Dans ce mémoire, nous abordons le problème de la conception robuste des systèmes complexes par simulations numériques. Nous menons une analyse rigoureuse des cycles de développement utilisés chez RENAULT et proposons des voies d’amélioration concrètes. Ces améliorations tirent leur inspiration de la stratégie FIRST DESIGN basée sur l’Ingénierie Système et le concept de robustesse décliné à toutes les étapes du cycle de développement du produit. Cette approche utilise les nouveaux outils de conception, tant statistiques que de modélisation. Cette stratégie permet d’éviter les coûteuses impasses de conception liées à un mauvais déploiement du cahier des charges. Pour étayer notre discours, deux cas concrets de conception en dynamique rapide sont étudiés. Une des particularités de ce domaine physique est le coût important de chaque simulation, ce qui nécessite la mise en place de stratégies d’économie des simulations. La première application concerne l’optimisation de forme d’un capot pour le choc piéton. Dans ce travail, nous développons un outil générique d’optimisation pour les concepteurs et le mettons en oeuvre pour trouver une forme de capot satisfaisant le cahier des charges. Pour réduire le nombre de simulations, nous proposons également un paramétrage adapté au problème et une stratégie de validation progressive des nouvelles géométries. La seconde application concerne la conception robuste en crash frontal. Les méthodes traditionnelles de conception robuste n’apportant pas complète satisfaction, nous développons une approche originale basée sur l’étude des scénarios de crash. En identifiant les éléments instables de la structure, cette méthode permet de stabiliser le comportement global de la structure en ne reconcevant qu’un minimum de pièces. L’ensemble des outils développés au cours de ces travaux vise à tirer le meilleur parti des nouveaux outils de conception, mais également du savoir faire des concepteurs. Les forts gains en prestation et en délai de conception constatés sur les exemples d’application attestent de la nécessité de remettre en cause l’approche traditionnelle de la conception et d’intégrer les nouveaux outils de conception numériques
This PhD thesis deals with robust design of complex systems with numerical simulations. The analysis of RENAULT design strategy suggests us concrete improvements based on the FIRST DESIGN methodology. This strategy relies on Engineering System ant the concept of robustness applied to all design step of the product. It uses all new design tools, as well statistical as modeling. This strategy allows designers to avoid design resource consuming and time demanding iterations. We use two concrete case study to illustrate our work. These cases take place in the context of costly simulations, that is why we will have to save them. First case study is about shape optimization of a pedestrian hood panel. We develop an industrial optimization tool and use it to find a satisfying shape. To save simulations, we also develop a special parameterization and a progressive validation of new shapes. Second case study is about robust design of a frontal crash. As traditional approaches could not fit our problem, we develop an original strategy based on crash scenarios. This method allows designers to identify unstable structural elements and to stabilize their behavior during the crash in the best conditions. All the tools developed along this work tend to take the best advantage of both new simulations tools and designers experience. Improvements of performance and design time on both cases study prove the interest of modifying the traditional design strategy to incorporate new numerical design tools
APA, Harvard, Vancouver, ISO, and other styles
12

Burneau, Jean-Christophe. "Une méthode de conception orientée objets, appliquée aux systèmes de maintenance d'équipements de radiodiffusion." Nancy 1, 1991. http://docnum.univ-lorraine.fr/public/SCD_T_1991_0262_BURNEAU.pdf.

Full text
Abstract:
Cette thèse propose une méthode de conception destinée à la création de systèmes de maintenance d'équipements de radiodiffusion. Le modèle de la méthode consiste en une extension du modèle orienté objets, prenant en compte les entités qui évoluent au cours de leur vie et formalisant la notion de points de vue différents sur une même entité. Les schémas conceptuels sont exprimés à l'aide d'un langage graphique qui permet l'expression de tous les concepts et des contraintes associées. Une démarche permet d'automatiser le calcul des classes à partir d'un énoncé en langage naturel. Un outil supporte la méthode, autorisant la gestion de schémas conceptuels nombreux et importants.
APA, Harvard, Vancouver, ISO, and other styles
13

Caelen, Olivier. "Sélection séquentielle en environnement aléatoire appliquée à l'apprentissage supervisé." Doctoral thesis, Universite Libre de Bruxelles, 2009. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210265.

Full text
Abstract:
Cette thèse se penche sur les problèmes de décisions devant être prises de manière séquentielle au sein d'un environnement aléatoire. Lors de chaque étape d'un tel problème décisionnel, une alternative doit être sélectionnée parmi un ensemble d'alternatives. Chaque alternative possède un gain moyen qui lui est propre et lorsque l'une d'elles est sélectionnée, celle-ci engendre un gain aléatoire. La sélection opérée peut suivre deux types d'objectifs.

Dans un premier cas, les tests viseront à maximiser la somme des gains collectés. Un juste compromis doit alors être trouvé entre l'exploitation et l'exploration. Ce problème est couramment dénommé dans la littérature scientifique "multi-armed bandit problem".

Dans un second cas, un nombre de sélections maximal est imposé et l'objectif consistera à répartir ces sélections de façon à augmenter les chances de trouver l'alternative présentant le gain moyen le plus élevé. Ce deuxième problème est couramment repris dans la littérature scientifique sous l'appellation "selecting the best".

La sélection de type gloutonne joue un rôle important dans la résolution de ces problèmes de décision et opère en choisissant l'alternative qui s'est jusqu'ici montrée optimale. Or, la nature généralement aléatoire de l'environnement rend incertains les résultats d'une telle sélection.

Dans cette thèse, nous introduisons une nouvelle quantité, appelée le "gain espéré d'une action gloutonne". Sur base de quelques propriétés de cette quantité, de nouveaux algorithmes permettant de résoudre les deux problèmes décisionnels précités seront proposés.

Une attention particulière sera ici prêtée à l'application des techniques présentées au domaine de la sélection de modèles en l'apprentissage artificiel supervisé.

La collaboration avec le service d'anesthésie de l'Hôpital Erasme nous a permis d'appliquer les algorithmes proposés à des données réelles, provenant du milieu médical. Nous avons également développé un système d'aide à la décision dont un prototype a déjà été testé en conditions réelles sur un échantillon restreint de patients.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
14

Shen, Yimin. "Bioinformatique appliquée à la prédiction de structure de peptides." Paris 7, 2012. http://www.theses.fr/2012PA077070.

Full text
Abstract:
Les peptides sont devenus, au cours des années récentes, une alternative de plus en plus crédible aux petits composés chimiques. Une première partie de cette thèse porte sur l'optimisation de PEP-FOLD, une approche rapide et précise de prédiction de novo de la structure des peptides. Nous montrons qu'il est possible de biaiser la recherche conformationnelle à moins de 20% de l'espace total tout en conservant la conformation native. Ce biais résulte d'une analyse a posteriori des trajectoires d'alphabet structural utilisées pour la génération 3D par PEP-FOLD. Sur la base de ce biais, nous montrons que PEP-FOLD2 peut être validé pour des tailles jusqu'à 50 acides aminés avec une précision de 2. 6 À, soit légèrement mieux qu'une approche de référence comme Rosetta, ce qui constitue une amélioration majeure par comparaison à PEP-FOLD1 qui pouvait générer des modèles tridimensionnels de peptides jusqu'à 30 acides aminés avec une précision de l'ordre de 2-3 À. Une deuxième partie a porté sur la recherche de fragments. J'ai développé une approche de comparaison de profils d'alphabet structural pour l'identification de fragments similaires à faible taux d'identité de séquence. Les résultats obtenus montrent d'une part qu'il est possible, à partir d'une collection de structures à faible taux d'identité de séquences (25%), d'identifier des fragments de taille comprise entre 6 et 27 acides aminés pour 90% des structures. La comparaison avec une autre méthode profil-profil récente, HHfrag, montre que l'information de la structure locale prédite sous la forme d'alphabet structural permet un gain en précision important de 27%, tout en ayant un taux de couverture légèrement supérieur
In these years, peptides have become an alternative more and more credible than small chemical compounds. A key step of peptide functional characterization is the characterization of their 3D structure. A first part of this thesis is related to PEP-FOLD optimization. PEP-FOLD is a fast and accurate approach for the de novo peptide structure prediction, based on the concept of structural alphabet. We show it is possible to bais the conformational search to as few as 20% of the full conformational space still having the native conformation. This biais results from an a posteriori analysis of the structural alphabet trajectories used for PEP-FOLD 3D generation. Based on such bias, we show PEP-FOLD2 can efficiently generate models for peptides up to 50 amino acids, at a precision of 2. 6 A, which is slightly better than a reference approach such as Rosetta. It is also a major improvement compared to PEP-FOLD1 that could generate 3D models for peptides up to 30 amino acids only, at a precision of 2-3 A. The second part focused on candidate fragment identification from sequence. I have developed an approach for structural alphabet profile comparison, to identify fragments of know structure at low sequence identity. Results show that, mining a non redundant collection of structures at low sequence identity (25%), the procedure is able to identify fragments of size between 6 and 27 amino acids covering 90% of the structures. Besides, a comparison with a recent amino acid profile-profile approach - Hhfrag - shows that the local structure information predicted using our structural alphabet allows a significant gain in accuracy - 27%, with a slightly better coverage
APA, Harvard, Vancouver, ISO, and other styles
15

Liebgott, Pierre-Pol. "Etude de la biodiversité bactérienne d'un biotope oléicole hypersalé et des voies biochimiques impliquées dans la transformation du tyrosol." Aix-Marseille 1, 2007. http://theses.univ-amu.fr.lama.univ-amu.fr/2007AIX11031.pdf.

Full text
Abstract:
Les effluents liquides qui sont composés d'un mélange de margines et d'eaux de saumures, sont rejetés par les industries oléicoles, et contribuent considérablement à la pollution environnementale du pourtour méditerranéen. Ils sont caractérisés par une forte DCO et des quantités significatives de composés phénoliques peu biodégradables, dont le plus représentatif est le tyrosol. L’objectif de ce travail était donc de comprendre les voies dégradatrices du tyrosol, via l'utilisation de microorganismes endogènes isolés de ces effluents. En utilisant la technique 'Single Strand Conformation Polymorphism' (SSCP), l'étude de la biodiversité a montré un profil de biotope hypersalé. Différents isolats bactériens halophiles, aérobies et anaérobies ont alors été obtenus grâce à un isolement classique ciblé. Deux d'entre eux, TYRC17 et HTB24, appartenant au genre Halomonas, ont été retenus pour leur capacité à transformer le tyrosol et le p-hydroxyphénylacétate (HPA), en molécules ortho-diphénoliques (3,4-dihydroxyphénylacétate ou DHPA et homogentisate ou HGA), connues comme des antioxydants potentiels. Cette étude nous a permis de mettre en évidence le métabolisme de dégradation du tyrosol, encore jamais décrit à ce jour. Ainsi, le tyrosol est oxydé via une aryle-déshydrogénase en HPA. Ce dernier est à son tour hydroxylé soit en HGA via une HPA 1-monooxygénase chez la souche TYRC17, soit en DHPA via une HPA 3- monooxygénase chez la souche HTB24. Ces composés ortho-diphénoliques sont alors clivés par des catécholdioxygénases, et enfin dégradés. En présence de métaux de transition comme ceux contenus dans les oligoéléments ajoutés, l’HGA se transforme abiotiquement en 2,5-dihydroxybenzaldehyde (gentisaldehyde), qui intervient dans la formation de la pyomélanine. Quant à la souche HTB24, elle produit de l’hydroxytyrosol par hydroxylation aspécifique du tyrosol, via l’HPA 3-monooxygénase qui a été induite par le HPA. De plus, l’analyse d'autres bactéries possédant cette enzyme, telles que P. Aeruginosa ou E. Coli, a confirmé qu’elles étaient aussi capables de transformer le tyrosol en hydroxytyrosol. Ces bioconversions originales ouvrent donc de fortes perspectives pour la bioremédiation de ces effluents fortement salés, mais aussi pour une production prometteuse de molécules antioxydantes à haute valeur ajoutée
The liquid effluents which are composed of a mixture of olive mill wastewater and brine waters, are rejected by olive industries, and contribute considerably to the environmental pollution of the Mediterranean area. They are characterized by a high DCO and significant quantities of recalcitrant phenolic compounds, of which the most representative is the tyrosol. The objective of this work was thus to understand the degradation pathways of the tyrosol, via the use of endogenous microorganisms isolated from these effluents. By using the technique ' Single Strand Conformation Polymorphism' (SSCP), the study of the biodiversity showed a profile of salted biotope. Various halophilous, aerobic and anaerobic bacterial isolates were then obtained through a targeted traditional insolation. Two of them, TYRC17 an HTB24, belonging to the Halomonas genus, were studied for their capacity to transform the tyrosol and p - hydroxyphenylacetate d (HPA), into orthodiphenolic molecules (3,4-dihydroxyphenylacetate or DHPA and homogentisate HGA), known as potential antioxydants. This study enabled us to highlight two degradation pathways of the tyrosol, never yet described to date. Thus, the tyrosol is oxidized via an aryl-dehydrogenase in HPA. This last is hydroxylated either in HGA via a HPA 1-monooxygenase from strain TYRC17, or in DHPA via a HPA 3-monooxygenase from strain HTB24. These ortho-diphenolic compounds are then cleaved by catechol-dioxygenases, and finally degraded. In the presence of transition metals, contained in the Widdel oligo-element solution, the HGA is transformed not biologically, into 2,5-dihydroxybenzaldehyde (gentisaldehyde) which is involved in the pyomelanin formation. Moreover, strain HTB24 is able to produce hydroxytyrosol by aspecific tyrosol hydroxylation, via the same HPA 3-monooxygenase, the latter being induced by the presence of HPA in the medium. Moreover, the study of other bacteria having this enzyme, such as Pseudomonas aeruginosa or Escherichia coli confirmed that they are also able to transform the tyrosol into hydroxytyrosol. These original bioconversions thus open great prospects for the bioremediation for these strongly salted effluents, but also for a promising production of antioxydant molecules with high added value
APA, Harvard, Vancouver, ISO, and other styles
16

Meygret, Aimé. "Vision automatique appliquée à la détection d'obstacles dans un environnement routier." Nice, 1990. http://www.theses.fr/1990NICE4411.

Full text
Abstract:
Dans le cadre des recherches du projet Eureka Prométhéus nous nous intéressons à la détection d'obstacles en environnement routier au moyen de différentes techniques de vision. Dans la première partie de cette thèse nous étudions la stéréovision passive afin de produire une représentation tridimensionnelle de l'environnement. Nous présentons un algorithme original de mise en correspondance de points de chaines de contours, basé sur une approche multi-résolution. Des hypothèses d'obstacles sont ensuite générées par un processus de reconnaissance basé sur une coopération entre une émission d'hypothèses 2D (traitement monoculaire basé sur les groupements perceptuels) et une validation 3D (utilisant les résultats de l'algorithme de stéréovision). Dans la deuxième partie de cette thèse nous nous intéressons à l'analyse du mouvement dans une séquence d'images. Une adaptation de l'algorithme de mise en correspondance développé dans la première partie, permet de détecter le flot optique (projection dans le plan image des vecteurs vitesses réelles) par mise en correspondance d'images prises à des instants différents. Une segmentation des données stéréo permet de détecter des objets (au sens large du terme) qui sont classés rigide ou déformable à partir d'une segmentation du flot optique. Dans chaque partie nous présentons et analysons des résultats expérimentaux sur des données réelles
APA, Harvard, Vancouver, ISO, and other styles
17

Khouaja, Youssef. "Une méthode de contrôle par le réseau appliquée à la gestion hiérarchique de la mobilité IPv6." Rennes 1, 2002. http://www.theses.fr/2002REN10114.

Full text
Abstract:
Cette thèse étudie la mobilité IP dans les réseaux radio-mobiles. Nous nous intéressons principalement au réseau d'accès et notamment au processus du handover à l'intérieur d'un même réseau. Le premier travail de cette thèse consiste à étudier les deux versions IPv4 et IPv6 du protocole Mobile IP avec un intérêt particulier pour la version IPv6 qui est utilisée pour l'implémentation des propositions apportées dans la thèse. Ensuite, nous identifions les difficultés de Mobile IP à gérer les mouvements locaux limités à un réseau d'accès et nous définissons les besoins d'un nouveau protocole de micro-mobilité. Puis, grâce aux besoins définis, nous évaluons les principales solutions existantes et nous déterminons les points à améliorer. Enfin, nous proposons une solution de gestion hiérarchique de la mobilité IP contrôlée par le réseau. Cette proposition inclut la phase de décision de l'exécution du handover dans la gestion de la mobilité et introduit le contrôle du handover par le réseau.
APA, Harvard, Vancouver, ISO, and other styles
18

Saint, Michel Thierry. "Filtrage non linéaire en vue d'une segmentation semi supervisée appliquée à l'imagerie médicale." Lille 1, 1997. http://www.theses.fr/1997LIL10110.

Full text
Abstract:
Ce travail de thèse est consacré à une méthode de segmentation semi-supervisée, basée sur les opérations morphologiques à niveau de gris. Cette étude a été réalisé en collaboration avec le service de neuroradiologie du C. H. R. U. De Lille, dans le cadre d'une segmentation de régions et de lésions cérébrale. La difficulté de détecter des régions ou contours, est la réalité des images médicales (complexité des formes). En effet les valeurs attribuées à l'image sont accompagnées d'un bruit qui est la conséquence des troncatures de calcul, mais aussi des phénomènes physiques liés au fonctionnement des capteurs (patient, environnement, circuits électroniques. . . ). Ce bruit, en plus d'être différent entre le fond et l'objet, engendre des difficultés majeures de détection. Face à ces obstacles pour la segmentation, nous nous efforçons d'obtenir des images plus simples et plus structurées en effectuant un pré - traitement (filtrage) afin d'éliminer le bruit. Le filtre non linéaire à compensation de bruit - comb-, que nous proposons, basé sur les opérations de morphologique mathématique ouverture et fermeture, réduit les fluctuations de niveaux de gris sans modifier les transitions entre les différents objets. Il classifie certaines régions de l'image par tri des valeurs de niveaux de gris. Pour montrer une application de ce filtre, nous proposons une méthode de calcul de dérivée seconde partielle du niveau de gris à partir de l'inversion de la formule de rehaussement de contraste morphologique. Ce calcul permet d'étudier les variations de niveaux de gris, et de déterminer un contour compris entre deux contours extremums représentant le début et la fin de cette transition. Finalement nous avons réalisé un logiciel permettant d'effectuer diverses reconstructions et mesures.
APA, Harvard, Vancouver, ISO, and other styles
19

Gennero, Marie-Claude. "Contribution à l'étude théorique et appliquée des codes correcteurs d'erreurs." Toulouse 3, 1990. http://www.theses.fr/1990TOU30243.

Full text
Abstract:
Dans une première partie, nous donnons une synthèse des principaux résultats de la théorie de l'information ainsi que des méthodes de compression. Nous unifions également dans une méthode algébrique la description des codes classiques, la factorisation de polynômes ainsi que la transformée de Fourier. En seconde partie, nous présentons une chaine de logiciels que nous avons mis au point, pour être intégrée dans un système expert. Nous avons validé cette chaine sur des données comprimées (images, parole). Nous avons mis en évidence les résultats obtenus, en faisant varier les différents paramètres. Dans le dernier chapitre nous donnons des tables et des courbes utiles pour des calculs dans des corps finis
APA, Harvard, Vancouver, ISO, and other styles
20

Orset, Jean-Marie. "Une architecture de test passif appliquée à la détection des attaques dans les réseaux ad hoc." Evry, Institut national des télécommunications, 2007. http://www.theses.fr/2007TELE0002.

Full text
Abstract:
Les réseaux ad hoc constituent un concept très prometteur dans le domaine des réseaux informatiques. Malheureusement, leur évolution est actuellement freinée par les problèmes de sécurité qui viennent pertuber le processus d'acheminement des données. Les systèmes de détection d'intrusions apparaissent comme un outil idéal pour limiter les attaques sur le protocole de routage. Cependant, les solutions existantes ne sont pas toujours adaptées aux caractéristiques bien spécifiques des réseaux ad hoc. Dans cette thèse, nous présentons une architecture de détection d'attaque inspirée des techniques de test de conformité. Nous proposons ainsi un algotithme de test passif qui recherche les anomalies dans une trace d'exécution du protocole, en comparant les évènements collectés avec ce qui est attendu par la spécification. Pour accroître le pouvoir de détection de notre algorithme, nous proposons une méthode de détermination des contraintes initiales. L'utilisation de méthodes formelles et de techniques de test permet ainsi de combiner les avantages des deux approches classiques de détection (comportementale et par scénario), à savoir la capacité de détecter des attaques inconnues, tout en ne générant pas d'alertes inutiles. Nous proposons également une méthodologie pour détecter de nouvelles attaques à partir de l'observation de situations typiques de blocage. Celle-ci inclut un algorithme de recherche en arrière qui, en explorant le passé de la trace, permet d'exhiber une séquence d'entrée/sortie suspecte.
APA, Harvard, Vancouver, ISO, and other styles
21

Thomassey, Sébastien. "Méthodologie de la prévision des ventes appliquée à la distribution textile." Lille 1, 2002. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2002/50376-2002-239-240.pdf.

Full text
Abstract:
La concurrence et la mondialisation impliquent une gestion très précise de la production et des approvisionnements des acteurs de la filière Textile-Habillement-Distribution. Face aux contraintes liées à la fabrication et à la distribution des produits (délai d'obtention relativement long et durée de vie courte des articles,. . . ), une telle organisation nécessite un système de prévision des ventes adapté aux incertitudes du marché et aux besoins du distributeur. Le caractère incertain des ventes est caractérisé par l'influence de nombreuses variables explicatives difficilement contrôlables et identifiées. Le distributeur doit s'appuyer sur des prévisions à moyen terme (horizon : une saison) afin d'anticiper sa production et ses premiers approvisionnements. Le réajustement de la prévision à court terme (horizon : une à trois semaines) est également nécessaire afin de corriger la planification des réassorts, tout au long de la saison. De nombreux modèles de prévision existent
Cependant, ils sont généralement inadaptés au contexte textile. En effet, leurs capacités d'apprentissage et de modélisation sont souvent limitées sur les historiques courts et perturbés des ventes textiles. L'interprétation et l'intervention de l'utlisateur sont également souvent compliquées avec les modèles classiques. Ainsi, nous proposons un système de prévision, constitué de plusieurs modèles qui abordent des prévisions sur divers horizons et à différents niveaux d'agrégation des ventes. Ce système est basé sur des techniques issues du "soft computing" telles la logique floue, les réseaux de neurones ou les procédures évolutionnistes, autorisant le traitement de données incertaines. Les performances de nos modèles sont ensuite évaluées et analysées sur un jeu de données réelles provenant d'un grand distributeur textile. Enfin, dans le cadre d'un projet nommé AIDE financé par le ministère de l'économie, des finances et de l'industrie, ce système de prévision s'intègre dans un outil d'aide à la décision à destination de chacun des acteurs de la filière textile
APA, Harvard, Vancouver, ISO, and other styles
22

Guibert, Stéphane. "La thermographie infrarouge à détection synchrone appliquée aux matériaux composites." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24372/24372.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Inthasone, Somsack. "Techniques d'extraction de connaissances en biodiversité." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4013/document.

Full text
Abstract:
Les données sur la biodiversité sont généralement représentées et stockées dans différents formats. Cela rend difficile pour les biologistes leur agrégation et leur intégration afin d'identifier et découvrir des connaissances pertinentes dans le but, par exemple, de classer efficacement des spécimens. Nous présentons ici l'entrepôt de données BioKET issu de la consolidation de données hétérogènes de différentes sources. Actuellement, le champ d'application de BioKET concerne la botanique. Sa construction a nécessité, notamment, d'identifier et analyser les ontologies et bases botaniques existantes afin de standardiser et lier les descripteurs utilisés dans BioKET. Nous avons également développé une méthodologie pour la construction de terminologies taxonomiques, ou thésaurus, à partir d'ontologies de plantes et d'informations géo-spatiales faisant autorité. Les données de biodiversité et botanique de quatre fournisseurs majeurs et de deux systèmes d'informations géo-spatiales ont été intégrées dans BioKET. L'utilité d'un tel entrepôt de données a été démontrée par l'application de méthodes d'extraction de modèles de connaissances, basées sur les approches classiques Apriori et de la fermeture de Galois, à des ensembles de données générées à partir de BioKET. En utilisant ces méthodes, des règles d'association et des clusters conceptuels ont été extraits pour l'analyse des statuts de risque de plantes endémiques au Laos et en Asie du Sud-Est. En outre, BioKET est interfacé avec d'autres applications et ressources, tel que l'outil GeoCAT pour l'évaluation géo-spatiale des facteurs de risques, afin de fournir un outil d'analyse performant pour les données de biodiversité
Biodiversity data are generally stored in different formats. This makes it difficult for biologists to combine and integrate them in order to retrieve useful information and discover novel knowledge for the purpose of, for example, efficiently classifying specimens. In this work, we present the BioKET data warehouse which is a consolidation of heterogeneous data stored in different formats and originating from different sources. For the time being, the scope of BioKET is botanical. Its construction required, among others things, to identify and analyze existing botanical ontologies, to standardize and relate terms in BioKET. We also developed a methodology for mapping and defining taxonomic terminologies, that are controlled vocabularies with hierarchical structures from authoritative plant ontologies, Google Maps, and OpenStreetMap geospatial information system. Data from four major biodiversity and botanical data providers and from the two previously mentioned geospatial information systems were then integrated in BioKET. The usefulness of such a data warehouse was demonstrated by applying classical knowledge pattern extraction methods, based on the classical Apriori and Galois closure based approaches, to several datasets generated from BioKET extracts. Using these methods, association rules and conceptual bi-clusters were extracted to analyze the risk status of plants endemic to Laos and Southeast Asia. Besides, BioKET is interfaced with other applications and resources, like the GeoCAT Geospatial Conservation Assessment Tool, to provide a powerful analysis tool for biodiversity data
APA, Harvard, Vancouver, ISO, and other styles
24

Noulard, Eric. "Programmation parallèle orientée objet et réutilisabilité appliquée à l'algèbre linéaire." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2000. http://tel.archives-ouvertes.fr/tel-00378738.

Full text
Abstract:
L'objectif de cette thèse est d'examiner comment les technologies orientées-objet peuvent apporter aux applications scientifiques tout ce qu'elles ont apporté dans la programmation des machines séquentielles: une meilleure réutilisabilité et pérennité des codes, des démarches méthodologiques de conception et de réalisation claires... La contrainte du calcul scientifique parallèle de ne pas sacrifier les performances devant être respectée.

Après une revue des moyens de programmation parallèle et des
concepts objets, la conception et la réalisation d'une bibliothèque parallèle d'algèbre linéaire orientée-objet sont présentées. Nous étudions deux moyens de programmation parallèle, le premier, C++//, est un LAO parallèle à objets actifs dérivé de C++, le second est l'utilisation de MPI au travers d'une surcouche objet minimale.
Ces deux approches objets posent des problèmes soit de performances soit de réutilisabilité séquentielle/parallèle qui sont présentés et résolus.

Nous proposons notamment un mécanisme simple de partage en lecture pour les modèles à objets actifs, en montrant son utilité en terme de performances de nos applications. Suite à la seconde approche nous définissons les notions de formes de matrices et de matrices avec forme qui permettent d'atteindre nos objectifs de réutilisabilité séquentielle/parallèle.

Au final, la conception et la réalisation permettent d'instancier, à partir du même code [séquentiel] d'algèbre linéaire, une version séquentielle et parallèle offrant des performances satisfaisantes.
APA, Harvard, Vancouver, ISO, and other styles
25

Sautot, Lucile. "Conception et implémentation semi-automatique des entrepôts de données : application aux données écologiques." Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS055/document.

Full text
Abstract:
Cette thèse traite de la conception semi-automatique d'entrepôts de données et des cubes OLAP associés pour l'analyse de données écologiques.Les sciences biologiques, notamment l'écologie et l'agronomie, génèrent des données qui nécessitent un effort de collecte important : plusieurs années sont souvent nécessaires pour obtenir un jeu de données complets. De plus, les objets et les phénomènes étudiés par ces sciences sont complexes et nécessite l'enregistrement de nombreux paramètres pour être appréhendés. Enfin, le recueil de données complexes sur un temps long a pour conséquence un risque accru d’inconsistance au sein de ces données. Ainsi, ces sciences génèrent des données nombreuses, hétérogènes, voir inconsistantes.Il est donc intéressant de proposer aux scientifiques travaillant dans les sciences du vivant des systèmes d'information capable de stocker et de restituer leurs données, en particulier quand celles ci présentent un volume important. Parmi les outils existants, les outils de l'informatique décisionnelle, notamment les systèmes d'analyse en ligne (On-Line Analytical processing : OLAP), ont particulièrement retenu notre attention, car il s'agit de processus d'analyse de données sur de larges collections de données historiques (c'est-à-dire un entrepôt de données) afin d'offrir un support à la prise de décision. L'informatique décisionnelle propose des outils qui permettent à leurs utilisateurs d'explorer de larges volumes de données, dans le but de découvrir des modèles et des connaissances au sein de ces données, et ainsi d'éventuellement confirmer leurs hypothèses.Cependant, les systèmes OLAP sont des systèmes d'information complexes dont la mise en place nécessite des compétences avancées en informatique décisionnelle. Ainsi, bien qu'ils aient des caractéristiques intéressantes pour gérer et analyser des données multidimensionnelles, leur complexité les rend difficilement accessibles pour des utilisateurs potentiels, qui ne seraient pas des informaticiens professionnels.Dans la littérature, plusieurs travaux se sont penchés sur la conception automatique de schéma multidimensionnel, mais les exemples proposés par ces travaux concernaient des données classiques. Par ailleurs, d'autres articles traitent de la modélisation multidimensionnelle adaptée à des données complexes (inconsistance, données hétérogènes, intégration d'objets spatiaux, de textes, d'images au sein d'un entrepôt …) mais les méthodes proposées par ces travaux sont rarement automatique.C'est pourquoi l'objectif de ce travail de thèse est de proposer une méthode de conception d'entrepôt de données et des cubes OLAP associés la plus automatique possible. Cette méthode doit être capable de prendre en compte la complexité des données inhérente aux sciences biologiques.Pour tester les différents prototypes que nous avons proposé durant ce travail de thèse, nous avons disposé d'un jeu de données concernant l'abondance des oiseaux le long de la Loire. Ce jeu de données est structuré de la façon suivante : (1) nous disposons du recensement de 213 espèces d'oiseaux (décrites par un ensemble de facteurs qualitatifs, comme par exemple le régime alimentaire) en 198 points le long du fleuve pour 4 campagnes de recensement ; (2) chacun des 198 points est décrits par un ensemble de variables environnementales issues de différentes sources (relevés de terrain, images satellites, SIG). Ce sont ces variables environnementales qui posent le plus de questions en termes de modélisation multidimensionnelle. Ces données sont issues de différentes sources, parfois indépendantes des campagnes de recensement des oiseaux, et sont donc inconsistantes dans le temps et l'espace. De plus, ces données sont hétérogènes : elles peuvent se présenter sous forme de facteurs qualitatifs, quantitatifs ou encore d'objets spatiaux. Pour finir, ces données environnementales intègrent un grand nombre de facteurs (158 variables retenues) (...)
This thesis concerns the semi-automatic design of data warehouses and the associated OLAP cubes analyzing ecological data.The biological sciences, including ecology and agronomy, generate data that require an important collection effort: several years are often required to obtain a complete data set. Moreover, objects and phenomena studied by these sciences are complex and require many parameter recording to be understood. Finally, the collection of complex data over a long time results in an increased risk of inconsistency. Thus, these sciences generate numerous and heterogeneous data, which can be inconsistent. It is interesting to offer to scientists, who work in life sciences, information systems able to store and restore their data, particularly when those data have a significant volume. Among the existing tools, business intelligence tools, including online analytical systems (On-Line Analytical processing: OLAP), particularly caught our attention because it is data analysis process working on large historical collections (i.e. a data warehouse) to provide support to the decision making. The business intelligence offers tools that allow users to explore large volumes of data, in order to discover patterns and knowledge within the data, and possibly confirm their hypotheses.However, OLAP systems are complex information systems whose implementation requires advanced skills in business intelligence. Thus, although they have interesting features to manage and analyze multidimensional data, their complexity makes them difficult to manage by potential users, who would not be computer scientists.In the literature, several studies have examined the automatic multidimensional design, but the examples provided by theses works were traditional data. Moreover, other articles address the multidimensional modeling adapted to complex data (inconsistency, heterogeneous data, spatial objects, texts, images within a warehouse ...) but the proposed methods are rarely automatic. The aim of this thesis is to provide an automatic design method of data warehouse and OLAP cubes. This method must be able to take into account the inherent complexity of biological data. To test the prototypes, that we proposed in this thesis, we have prepared a data set concerning bird abundance along the Loire. This data set is structured as follows: (1) we have the census of 213 bird species (described with a set of qualitative factors, such as diet) in 198 points along the river for 4 census campaigns; (2) each of the 198 points is described by a set of environmental variables from different sources (land surveys, satellite images, GIS). These environmental variables address the most important issue in terms of multidimensional modeling. These data come from different sources, sometimes independent of bird census campaigns, and are inconsistent in time and space. Moreover, these data are heterogeneous: they can be qualitative factors, quantitative varaibles or spatial objects. Finally, these environmental data include a large number of attributes (158 selected variables) (...)
APA, Harvard, Vancouver, ISO, and other styles
26

Peixoto, Joana. "Les formateurs parlent : les représentations des formateurs d'enseignants dans le domaine de l'informatique appliquée à l'éducation." Paris 8, 2005. http://www.theses.fr/2005PA082491.

Full text
Abstract:
Pourquoi les enseignants formés à l'informatique éducative (IE) ne transfèrent-ils pas, dans leurs pratiques de classe, les acquis de leur formation ? Nous faisons l'hypothèse qu'il existe, parmi les formateurs en IE, une certaine représentation du modèle de formation, et une conception des aspects bénéfiques des technologies numériques qui se transféreraient automatiquement dans la pratique des enseignants. Le concept de représentation sociale (Moscovici) a été adopté afin d'identifier, dans le discours des formateurs, la façon dont ils conçoivent la formation qu'ils mettent en pratique. Une enquête a été réalisée auprès des 21 enseignants de la discipline Informatique et Education de l'Université Catholique de Goiás, à l'aide des techniques de l'association de mots, des entretiens semi-structurés et des focus group. Pour ces formateurs, les sens de l'IE sont mis en évidence à travers diverses métaphores qui constituent leur imaginaire : de la machine à enseigner au puits sans fond en passant par les images de partenaire, de miroir, de miracle. . . . .
Why teachers prepared to work with Educational Informatics (EI) do not transfer to their practice what they learned during their formation? Our hypothesis is that there is, among EI formers, a certain representation of the formation model and a conception on the beneficial aspects of digital technologies that would be automatically transferred to the teachers' practice. The concept of social representation (Moscovici) was adopted to identify on the formers discourse how they conceive the formation and bring it to the practice. The investigation was done with the 21 teachers of the discipline "Informatics and Education" from the Catholic University of Goiás, in Brazil, using the techniques of words associations, semi-structured interview and focus group. The meanings of EI are made evident to those teachers through the many metaphors that constitute their imaginary: from the teaching machine to the bottomless well, and also a partner, a mirror, a miracle. .
APA, Harvard, Vancouver, ISO, and other styles
27

Bigand, Michel. "Générateur automatique de géométries admissibles en optimisation de forme." Paris 6, 1988. http://www.theses.fr/1988PA066082.

Full text
Abstract:
Le système présente est un système expert en technologie, capable de fournir toutes les formes admissibles en vue de l'optimisation d'un problème de conception mécanique. Sa structure modulaire permet de choisir les solutions techniques envisageables, et ce en faisant préciser à l'utilisateur le cahier des charges, puis de résoudre le problème en utilisant les ressources combinatoires de prolog et les ressources algorithmiques des langages de programmation
APA, Harvard, Vancouver, ISO, and other styles
28

Caudy, Nathalie. "Analyse de la conformité appliquée à la détection des interactions de services dans le réseau intelligent." Versailles-St Quentin en Yvelines, 1996. http://www.theses.fr/1996VERS0007.

Full text
Abstract:
Le réseau intelligent est un nouveau concept d'architecture de réseau de télécommunications dont l'objectif est de faciliter l'introduction ou la modification de services téléphoniques rapidement et à moindre coût. Lors de l'introduction de ces nouveaux services, leur impact sur le réseau et sur les services déjà existants doit être étudié. En particulier, ces services peuvent interagir entre eux de façon non désirée et engendrer ainsi un dysfonctionnement du réseau. Ce phénomène, connu sous le nom d'interaction de services est réellement problématique et il est indispensable de détecter et de résoudre ces interactions. Cette thèse se concentre sur la détection des interactions et propose de l'effectuer en appliquant des mécanismes mis en oeuvre dans le domaine de la validation des systèmes de télécommunication. L'idée développée est de valider le comportement du réseau dans lequel deux services sont simultanément implantés par rapport au comportement correspondant au cas ou chacun des deux services est seul présent dans le réseau. Cette validation est faite soit par analyse de traces, soit par application de cas de test. Le premier chapitre propose une rapide présentation du réseau intelligent et des services offerts par un tel réseau. Le second chapitre introduit les interactions qui peuvent exister entre ces différents services et les façons dont elles sont abordées par les différents opérateurs et fournisseurs de services. Le troisième chapitre est consacré au test de protocoles et présente différentes méthodes étudiées dans le cadre de la validation des protocoles. Le quatrième chapitre est dédié à l'application de ces méthodes à la détection des interactions de services et le cinquième chapitre présente la mise en oeuvre de ces méthodes.
APA, Harvard, Vancouver, ISO, and other styles
29

Sirugue, Léa. "Conception et développement d’une méthode de comparaison de surfaces appliquée aux protéines." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC042.

Full text
Abstract:
Les interactions entre protéines jouent un rôle crucial dans les processus du vivant comme la communication cellulaire, l’immunité, la croissance, prolifération et la mort cellulaires. Ces interactions se font via leur surface et la perturbation des interactions entre protéines est à la base de nombreux processus pathologiques. Il est donc nécessaire de bien comprendre et caractériser la surface des protéines et leurs interactions mutuelles de manière à mieux comprendre les processus du vivant. Différentes méthodes de comparaison de la surface des protéines ont été développées ces dernières années mais aucune n’est assez puissante pour traiter l’ensemble des structures disponibles dans les différentes bases de données. Le projet de thèse est donc de développer des méthodes rapides de comparaison de surface et de les appliquer à la surface des macromolécules
Protein interactions play a crucial role in the living processes such as cell communication, immunity, cell growth, proliferation and death. These interactions occur through the surface of proteins and the disruption of their interactions is the start of many disease processes. It is therefore necessary to understand and characterize the surface of proteins and their interactions to better understand living processes. Different methods of protein surfaces comparison have been developed in the recent years but none are powerful enough to handle all the structures currently available in databases. The PhD project is to develop rapid methods of surface comparison and apply them to the surface of macromolecules
APA, Harvard, Vancouver, ISO, and other styles
30

Lalanne, Vincent. "Gestion des risques appliquée aux systèmes d’information distribués." Thesis, Pau, 2013. http://www.theses.fr/2013PAUU3052/document.

Full text
Abstract:
Dans cette thèse nous abordons la gestion des risques appliquée aux systèmes d’information distribués. Nous traitons des problèmes d’interopérabilité et de sécurisation des échanges dans les systèmes DRM et nous proposons la mise en place de ce système pour l’entreprise: il doit nous permettre de distribuer des contenus auto-protégés. Ensuite nous présentons la participation à la création d’une entreprise innovante qui met en avant la sécurité de l’information, avec en particulier la gestion des risques au travers de la norme ISO/IEC 27005:2011. Nous présentons les risques liés à l’utilisation de services avec un accent tout particulier sur les risques autres que les risques technologiques; nous abordons les risques inhérents au cloud (défaillance d’un provider, etc...) mais également les aspects plus sournois d’espionnage et d’intrusion dans les données personnelles (Affaire PRISM en juin 2013). Dans la dernière partie nous présentons un concept de DRM d’Entreprise qui utilise les métadonnées pour déployer des contextes dans les modèles de contrôle d’usage. Nous proposons une ébauche de formalisation des métadonnées nécessaires à la mise en œuvre de la politique de sécurité et nous garantissons le respect de la réglementation et de la loi en vigueur
In this thesis we discuss the application of risk management to distributed information systems. We handle problems of interoperability and securisation of the exchanges within DRM systems and we propose the implementation of this system for the company: it needs to permit the distribution of self-protected contents. We then present the (our) participation in the creation of an innovative company which emphasizes on the security of information, in particular the management of risks through the ISO/IEC 27005:2011 standard. We present risks related to the use of services, highlighting in particular the ones which are not technological: we approach inheritent risks in clouds (provider failure, etc ...) but also the more insidious aspects of espionage and intrusion in personal data (Case PRISM in June 2013). In the last section, we present a concept of a DRM company which uses metadata to deploy settings in usage control models. We propose a draft formalization of metadata necessary for the implementation of a security policy and guarantee respect of regulations and legislation
APA, Harvard, Vancouver, ISO, and other styles
31

Duquenoy, Mickaël. "Analyse Temps-Fréquence appliquée à l'imagerie SAR polarimétrique." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00480262.

Full text
Abstract:
L'imagerie SAR considère les cibles comme un ensemble de diffuseurs ponctuels, isotropes et non-dispersifs. Ce modèle devient obsolète pour les nouvelles applications radar qui utilisent une large bande et une forte excursion angulaire. Il s'agit donc d'étudier les non-stationnarités par l'outil usuel : l'analyse temps-fréquence. Les transformées temps-fréquence usuelles permettent de construire des hyperimages (images à 4 dimensions) décrivant l'énergie en fonction de la fréquence émise et de l'angle de visée. Cette source d'information est reliée à la section efficace radar (SER). Une autre source d'information en imagerie radar est la polarimétrie. Il s'agit d'utiliser conjointement ces deux sources d'information afin de caractériser les diffuseurs. Par application des ondelettes continues et des décompositions cohérentes sur la matrice de Sinclair, des hyperimages polarimétriques sont générées. Ces hyperimages permettent de décrire le comportement polarimétrique en fonction de l'angle de visée et de la fréquence émise. Dans certains cas, elles décrivent globalement le mécanisme de rétrodiffusion, par sa nature, son orientation relative dans le plan horizontal et son orientation absolue dans le plan vertical. De plus, elles mettent en évidence un nouveau phénomène : la non-stationnarité polarimétrique. Celle-ci serait causée par le fait que le radar ne voit pas la même géométrie au cours de l'acquisition. De ces hyperimages polarimétriques, l'information est synthétisée et une nouvelle classification phénoménologique est proposée.
APA, Harvard, Vancouver, ISO, and other styles
32

Beye, Mamadou. "Génomique en temps réel appliquée aux isolats bactériens cliniques atypiques." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0558.

Full text
Abstract:
Le diagnostic, la caractérisation et l'identification rapides et précis des agents pathogènes sont essentiels pour guider le traitement, détecter les événements de transmission ou les échecs de traitement. Cependant le monde biomédical est confronté à des pathogènes émergents et ré-émergents. Ainsi certaines souches bactériennes cliniques présentent des spécificités de virulence, contagiosité et/ou de résistance aux antibiotiques. Le séquençage génomique à haut débit et l’analyse comparative des génomes bactériens constituent une bonne stratégie pour étudier rapidement les caractéristiques de ces pathogènes émergents. En à peine un peu plus de 20 ans, la génomique a connu un développement considérable grâce aux nouvelles technologies de séquençage à haut débit et à l’intérêt des scientifiques, qui ont permis l’augmentation exponentielle du nombre de génomes bactériens séquencés et disponibles dans les bases de données publiques. La génomique en temps-réel consiste en une analyse rapide du génome d’une souche bactérienne clinique pour identifier les déterminants génétiques de ses caractéristiques phénotypiques inhabituelles. C’est ainsi que les objectifs de ce projet de thèse étaient : d’exploiter rapidement les données de séquençage de génomes complets pour déterminer les répertoires de résistance et de virulence ; de comparer les génomes provenant des bactéries cliniques atypiques à ceux d’autres bactéries des mêmes espèces pour identifier leurs caractéristiques spécifiques ; d’utiliser les génomes comme outil taxonomique pour décrire rapidement les nouvelles espèces bactériennes isolées dans le laboratoire par culturomique
Rapid and accurate diagnosis, characterization and identification of pathogens are essential to guide treatment and detect transmission events or treatments failures. However, the biomedical field is confronted with emerging and re-emerging pathogens. Some of these clinical bacterial strains exhibit specificities concerning the virulence, contagiousness and / or resistance to antibiotics. High-throughput sequencing and comparative analysis of bacterial genomes is a reliable strategy enabling the rapid study of the characteristics of these emerging pathogens. In a short period, not exceeding 20 years, genomics has known a considerable revolution. In effect the introduction of the new high-throughput sequencingtechnologies and the increased concern of the scientist into this field, led to an exponential increase of number of available sequenced bacterial genomes in public databases. Real-time genomics is a strategy consisting on rapid analysis of the genome of a clinical bacterial strain in order to identify the genetic determinants justifying its unusual phenotypic characteristics. Thus, the objectives of this thesis project were: to rapidly exploit whole-genome sequencing data for identification of the virulence or resistance repertoire; to compare genomes from atypical clinical bacteria to those of other bacteria of the same species in order to identify their specific features; to use genomes as a taxonomic tool to rapidly describe the new bacterial species isolated in the laboratory by culturomics approach
APA, Harvard, Vancouver, ISO, and other styles
33

Gagliolo, Matteo. "Online Dynamic Algorithm Portfolios: Minimizing the computational cost of problem solving." Doctoral thesis, Università della Svizzera italiana, Lugano, Switzerland, 2010. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/250787.

Full text
Abstract:
This thesis presents methods for minimizing the computational effort of problem solving. Rather than looking at a particular algorithm, we consider the issue of computational complexity at a higher level, and propose techniques that, given a set of candidate algorithms, of unknown performance, learn to use these algorithms while solving a sequence of problem instances, with the aim of solving all instances in a minimum time. An analogous meta-level approach to problem solving has been adopted in many different fields, with different aims and terminology. A widely accepted term to describe it is algorithm selection. Algorithm portfolios represent a more general framework, in which computation time is allocated to a set of algorithms running on one or more processors.Automating algorithm selection is an old dream of the AI community, which has been brought closer to reality in the last decade. Most available selection techniques are based on a model of algorithm performance, assumed to be available, or learned during a separate offline training sequence, which is often prohibitively expensive. The model is used to perform a static allocation of resources, with no feedback from the actual execution of the algorithms. There is a trade-off between the performance of model-based selection, and the cost of learning the model. In this thesis, we formulate this trade-off as a bandit problem.We propose GambleTA, a fully dynamic and online algorithm portfolio selection technique, with no separate training phase: all candidate algorithms are run in parallel, while a model incrementally learns their runtime distributions. A redundant set of time allocators uses the partially trained model to optimize machine time shares for the algorithms, in order to minimize runtime. A bandit problem solver picks the allocator to use on each instance, gradually increasing the impact of the best time allocators as the model improves. A similar approach is adopted for learning restart strategies online (GambleR). In both cases, the runtime distributions are modeled using survival analysis techniques; unsuccessful runs are correctly considered as censored runtime observations, allowing to save further computation time.The methods proposed are validated with several experiments, mostly based on data from solver competitions, displaying a robust performance in a variety of settings, and showing that rough performance models already allow to allocate resources efficiently, reducing the risk of wasting computation time.
Permanent URL: http://doc.rero.ch/record/20245
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
34

Buyssens, Pierre. "Fusion de différents modes de capture pour la reconnaissance de visages appliquée aux e_transactions." Caen, 2011. http://www.theses.fr/2011CAEN2007.

Full text
Abstract:
Dans cette thèse, nous décrivons le problème de la reconnaissance automatique de visages en lumière visible et infrarouge (grandes longueurs d'ondes). Les principales méthodes de la littérature sont étudiées, et nous nous concentrons dans un premier temps sur une méthode fondée sur les réseaux de neurones à convolution. Appliquée aux deux modalités, la méthode de fusion par pondération des scores proposée permet d'augmenter sensiblement les taux de reconnaissance. Dans un deuxième temps, l'application de méthodes de pré-apprentissage du réseau via des approches parcimonieuses est étudiée pour la reconnaissance faciale. Enfin, nous nous penchons sur une approche de décomposition parcimonieuse de visages, couplée à une méthode de classification fondée sur une minimisation l1. Cette dernière approche permet d'atteindre de bons taux d'identification sur la base de référence Notre-Dame
In this thesis, we describe the problem of automatic face recognition in visible and long--wave infrared lights. The state of the art methods are described, and we study, in a first time, a method based on convolutional neural networks. Applied to both modalities, the proposed fusion method, based on a weighted sum of scores, yields a substantial increasing of the recognition rates. In a second time, a pretraining of the network with sparse methods is studied for automatic facial recognition. Finally, we propose an approach based on a sparse decomposition of faces, coupled with a classification scheme involving in a l1 minimization. This last approach gives good identification rates on the well known Notre-Dame database
APA, Harvard, Vancouver, ISO, and other styles
35

Bame, Ndiouma. "Gestion de donnée complexes pour la modélisation de niche écologique." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066125/document.

Full text
Abstract:
Cette thèse concerne la gestion de données de biodiversité à large échelle. Elle a pour objectifs d’optimiser les requêtes pour les chercheurs qui peuvent accéder gratuitement aux données mondiales de biodiversité. Ces données partagées par des laboratoires de recherche du monde entier, sont mises à disposition du GBIF qui les fédère et les rend accessibles aux chercheurs, décideurs, grand public. Avec une quantité importante et une croissance rapide des données et des utilisateurs qui expriment de nouveaux besoins, le GBIF est confronté à un double problème d’expressivité des requêtes et d’efficacité. Ainsi, nous proposons une solution décentralisée pour l’interrogation des données de biodiversité. La solution cumule les ressources de plusieurs machines éloignées et peu puissantes pour offrir la puissance de calcul et de stockage nécessaire pour garantir la réactivité du système pour les usagers. En outre, elle fournit une interface d’interrogation de haut niveau qui est plus expressif pour les usagers. Puis, nous mettons en œuvre un mécanisme de répartition dynamique des données à la demande. Cette approche qui est basée sur la structure des données de biodiversité et les spécificités des requêtes d’analyse des usagers, adapte dynamiquement les capacités des machines aux demandes des usagers. Ensuite, nous proposons une approche d’optimisation de requêtes qui adapte dynamiquement le placement des données et la charge de chaque machine en fonction de ses performances pour traiter les requêtes des usagers dans des délais impartis. Nous avons validé expérimentalement cette solution avec des données réelles du GBIF concernant 100 millions observations
This thesis concerns large scale biodiversity data management. Its objectives are to optimize queries for researchers who have free access to biodiversity worldwide data. These data which are shared by worldwide research laboratories are federated in GBIF data warehouse. GBIF makes accessible its data to researchers, policy makers and general public. With a significant amount of data and a rapid growth of data and users that express new needs, the GBIF portal is facing a double problem of expressiveness of queries and of efficiency. Thus, we propose a decentralized solution for biodiversity data interrogation. Our solution combines the resources of several of remote and limited machines to provide the needed computing and storage power to ensure system responsiveness for users. It also provides high-level query interface which is more expressive for users. Then, we propose a dynamic data distribution on demand approach. This approach which is based on data properties and characteristics of users analysis queries adapts dynamically machines capacities to users demands. Then, we propose a queries optimization approach that adapts dynamically data placement and machines loads according to performances in order to process users queries within deadlines. We experimentally validated our solution with real GBIF data concerning 100 million observation data
APA, Harvard, Vancouver, ISO, and other styles
36

Haydar, Mahmoud. "Interaction en Réalité Mixte appliquée à l'Archéologie Sous-Marine." Phd thesis, Université d'Evry-Val d'Essonne, 2011. http://tel.archives-ouvertes.fr/tel-00677294.

Full text
Abstract:
L'intérêt porté par l'archéologie à la réalité virtuelle est croissant. La réalité virtuelle est devenue un outil nécessaire pour l'exploration et l'étude des sites archéologiques, et plus particulièrement, les sites archéologiques sous-marins qui se révèlent parfois difficile d'accès. Les études actuelles proposent des solutions en réalité virtuelle ou en réalité augmentée sous forme d'environnements virtuels avec une interaction virtuelle et/ou augmentée mais aucune étude n'a vraiment essayé de comparer ces deux aspects de l'interaction. Nous présentons dans ce mémoire trois environnements en réalité virtuelle et un environnement en réalité augmentée où nous proposons des nouvelles méthodes d'interaction. Ainsi, nous évaluons leurs fonctionnalités d'un point de vue archéologique, nous étudions l'influence du niveau d'immersion sur les performances de l'interaction et nous réalisons une comparaison entre l'interaction en réalité virtuelle et en réalité augmentée.
APA, Harvard, Vancouver, ISO, and other styles
37

El, Maadi Amar. "Vision infrarouge appliquée à la vidéosurveillance extérieure automatisée : reconnaissance, suivi, classification et détection d'événements." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23614/23614.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Nguyen, Le-Vinh. "Technique de programmation par contraintes pour la vérification bornée des programmes : une stratégie non-séquentielle appliquée à un système embarqué critique." Nice, 2011. http://www.theses.fr/2011NICE4042.

Full text
Abstract:
Cette thèse porte sur la vérification bornée des programmes à l’aide de la technique de programmation par contraintes. Plus précisément, sur la stratégie d’exploration incrémentale des chemins exécutables pour la vérification et pour la génération automatique de contre-exemples d’applications. Cela est fait en utilisant les solveurs de contraintes comme les solveurs CP, LP, MIP, SMT. Nous avons utilisé dans ces travaux les méthodes de vérification formelles incomplètes ou Bounded Model Checking (BMC). Ces méthodes traitent uniquement des chemins d’une taille bornée dans les programmes. Dans cette thèse, nous proposons DPVS (Dynamic Postcondition-Variables driven Strategies), une nouvelle stratégie basée sur la génération dynamique d’un système de contraintes lors de l’exploration du graphe de flot de contrôle d’un programme. DPVS utilise une technique de recherche ascendante guidée par les variables liées à la propriété à prouver. Cette stratégie a été évaluée sur des exemples académiques et sur des applications réelles. Les expérimentations sur un contrôleur industriel qui gère les clignotants d’une voiture ont montré que notre système est bien plus performant que CPBPV (une approche proposée au sein de notre équipe) ainsi qu’un outil de model checking de premier plan comme CBMC. Nous avons également développé un prototype en COMET qui utilise la stratégie DPVS pour la vérification de programmes et pour la génération automatique des contre-exemples. Ce prototype utilise plusieurs techniques classiques pour simplifier le graphe de flot de contrôle : calcul de bornes de variables, technique de slicing, technique de propagation de constantes. Grâce à DPVS, nous avons trouvé des contre-exemples pour l’application temps-réel Gestionnaire des clignotants qui est fournie par Gensoft, un partenaire industriel du projet de recherche TESTEC
This thesis is devoted to program verification using the constraint programming technique. In particular, it focus on the incremental exploration strategy of executable paths of a program for verification and automatic counterexample generation using constraint solvers such as CP, LP, MIP, SMT. The context of this work is the Bounded Model Checking (BMC), an incomplete formal verification method, which only deals with paths of a bounded length in programs. In this thesis, we propose DPVS (Dynamic Postcondition-Variables driven Strategies), a new strategy based on the dynamic generation of a system of constraints in during the exploration of the control flow graph of the program. DPVS uses a backward search technique guided by the variables related to the property to prove. This strategy was evaluated on academic examples and real applications. Experiments on an industrial controller which manages the flashing lights of a car show that our system is more efficient than CPBPV, our previous approach, and than CBMC, a-state-of-the-art bounded model checker. We have developed a prototype in COMET that uses the DPVS strategy for program verification and automatic generation of counterexamples. This prototype uses many classical techniques to simplify the control flow graph such as calculating bounds of variables, slicing, propagation of constants. DPVS was successful in finding a counter–example of a real application, the Flasher Manager, that was provided by Gensoft, an industrial partner of the research project TESTEC
APA, Harvard, Vancouver, ISO, and other styles
39

Camarda, Federico. "Fusion de données multi-capteurs pour la détection des bords de voie appliquée au véhicule autonome." Thesis, Compiègne, 2022. http://www.theses.fr/2022COMP2673.

Full text
Abstract:
La perception et la compréhension correcte de la scène routière sont cruciales pour toute application de conduite assistée et automatisée. Afin de garantir la sécurité du passager et des autres usagers de la route, la planification et la navigation doivent être effectuées sur la base d’une représentation fiable de l’environnement. Les données multi-capteurs et les informations préalables sont utilisées pour construire cette représentation qui intègre l’identification des usagers de la route et de la structure de la route. Pour cette dernière, l’accent est mis sur l’espace de conduite et la répartition en voies. Sur les autoroutes, les rues urbaines et plus généralement sur l’ensemble du réseau routier, l’espace carrossable est organisé en couloirs orientes qui permettent une navigation plus sure et prévisible pour tous. Dans le cadre du développement des véhicules intelligents, l’identification de la répartition des voies et la construction d’une représentation précise de la route constituent la tache de détection des limites des voies. En fonction des spécificités du système automatise cible, les constructeurs automobiles intègrent dans les véhicules actuellement commercialises des solutions de détection des voies prêtes à l’emploi provenant de fournisseurs Tier-1 et comprenant généralement des capteurs intelligents simples et bases sur la vision. Ces solutions peuvent ne pas être adéquates dans les systèmes hautement automatisés où le conducteur est autorisé à détourner son attention de la tache de conduite pour devenir un passager. Cette thèse aborde le problème de l’identification des limites de voies en s’appuyant sur la fusion multi-capteurs des données des caméras intelligentes (en particulier, les cameras frontales et AVM) et des cartes HD. Dans la première partie, une modélisation appropriée pour les mesures des capteurs intelligents, indépendante de la nature du capteur, est proposée. Les détections incertaines des marquages, des barrières et d’autres éléments de la route contribuent au suivi des limites des voies environnantes à l’aide d’un nouveau modèle de splines de clothoides. La deuxième partie se concentre sur l’intégration d’informations préalables provenant de cartes numériques. Comme pour la modélisation des capteurs intelligents, les incertitudes liées à l’utilisation des fournisseurs de cartes ont été prises en compte pour aider à l’estimation des limites de la voie. Pour tester les approches proposées, un ensemble sur mesure de données routières a été enregistré en utilisant à la fois des capteurs intelligents disponibles dans le commerce et des cartes HD live stream. Les solutions de suivi validées et tunées sont ensuite intégrées dans des expérimentations en boucle fermée sur un véhicule prototype Renault de niveau 3 d’automatisation SAE
Perception and correct understanding of the road scene is crucial for any application of assisted and automated driving. In order to guarantee safety of the passenger and other road users, planning and navigation must be made on the basis of a reliable environment representation. Multi-sensor data and prior information is used to build this representation which incorporates identification of road users and road structure. For the latter, the focus is put on the drivablespace and lane repartition. On highways, urban streets and generally all over the road network, the drivable space is organized in oriented corridors which enablesafer and predictable navigation for everyone. In the development of intelligentvehicles, identifying the lane repartition and building an accurate road representation outlines the lane boundaries detection task. Depending on the specifics of the target automated system, car manufacturers integrate in currently commercialized vehicles ready-to-use lane detection solutions from Tier-1 suppliers generally featuring single and vision-based smart sensors. Such solutions may not be adequate in highly automated systems where the driver is allowed to divert their attention from the driving task and become passenger. This thesis addresses the problem of lane boundaries identification relying on multi-sensor fusion of smart camera data (specifically, frontal and AVM cameras) and HD-maps. In the first part, an appropriate modeling for smart sensor measurements which is independent from the sensor nature is proposed. Uncertain detections of markings, barriers and other road elements contribute to the tracking of the surrounding lane boundaries using a novel clothoid-spline model. The second part focuses on the integration of prior information coming from digital maps. Similarly to the modeling of smart sensors, the involved uncertainties in the usage of map-providers have been taken into account to support the lane boundaries estimation. For the testing of the proposed approaches, a custom dataset of road data has been recorded using both off-the-shelf smart sensors and live streamed HD-maps. Validated and tuned tracking solutions are then integrated in close-loop experimentations on Renault prototype vehicle of SAE Level 3 of automation
La percezione e la corretta comprensione della scena stradale e fondamentale per qualsiasi applicazione di guida assistita e automatizzata. Per garantire la sicurezza del passeggero e degli altri utenti della strada, la pianificazione e la navigazione devono essere effettuate sulla base di una rappresentazione affidabile dell’ambiente. Dati di origine multi-sensore e informazioni disponibili a priori sono utilizzati per costruire questa rappresentazione che incorpora l’identificazione degli utenti della strada e la struttura della strada stessa. Per quest’ultima, l’attenzione e posta sullo spazio percorribile e sulla ripartizione in corsie. Sulle autostrade, le strade urbane e in generale su tutta la rete stradale, lo spazio percorribile e organizzato in corridoi orientati che permettono una navigazione piu sicura e prevedibile per tutti. Nello sviluppo di veicoli intelligenti, l’identificazione della ripartizione in corsie e la costruzione di una rappresentazione accurata della strada delinea il compito di rilevamento dei confini delle corsie o lane boundaries detection. A seconda delle specifiche del sistema automatizzato di destinazione, le case automobilistiche integrano nei veicoli attualmente commercializzati soluzioni di rilevamento di corsia pronte all’uso da fornitori Tier-1, generalmente composte di singoli sensori intelligenti e basate sulla visione computerizzata. Tali soluzioni potrebbero non essere adeguate in sistemi altamente automatizzati dove al guidatore e permesso di distogliere l’attenzione dal compito di guida e di diventare passeggero. Questa tesi di dottorato affronta il problema dell’identificazione dei limiti di corsia basandosi sulla fusione multi-sensore di dati provenienti da telecamere intelligenti (in particolare, telecamere frontali e AVM) e mappe HD. Nella prima parte, viene proposta una modellazione appropriata per le misure dei sensori intelligenti che e indipendente dalla natura del sensore. I rilevamenti incerti di marcature, barriere e altri elementi stradali contribuiscono alla stima dei limiti delle corsie circostanti utilizzando un nuovo modello di spline di clotoidi. La seconda parte si concentra sull’integrazione di informazioni provenienti da mappe digitali. Analogamente alla modellazione dei sensori intelligenti, le incertezze coinvolte nell’uso di map-providers sono state prese in considerazione per supportare l’identificazione dei limiti di corsia. Per testare gli approcci proposti, e stato registrato un dataset personalizzato di dati stradali utilizzando sia sensori intelligenti off-the-shelf che mappe HD in live streaming. Le soluzioni di tracking convalidate e correttamente regolate sono poi integrate in sperimentazioni a circuito chiuso su un veicolo prototipo Renault di livello 3 di automazione SAE
APA, Harvard, Vancouver, ISO, and other styles
40

Aljundi, Ahmad Chadi. "Une méthodologie multi-critères pour l'évaluation de performance appliquée aux architectures de réseaux d'interconnexion multi-étages." Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-Aljundi.pdf.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'évaluation de performance des réseaux d'interconnexion multi-étages. Le travail présenté couvre deux aspects essentiels : la définition d'une méthodologie multi-critères pour l'évaluation et la comparaison de réseaux d'interconnexion. Cette méthodologie est basée sur la définition d'une fonction de distance dans un espace multidimensionnel, où chaque dimension représente un facteur de performance. La fonction peut être utilisée dans un contexte d'optimisation Pareto ou dans le contexte d'une classification. Le deuxième aspect, est la proposition d'une nouvelle famille de réseau d'interconnexion multi-étages baptisée les réseaux d'interconnexion Delta surdimensionnés. Cette famille de réseaux fournit des performances meilleures que celles des réseaux Delta au prix d'une complexité plus élevée. La méthodologie est utilisée pour comparer les performances de deux familles en prenant en compte cette complexité plus élevée.
APA, Harvard, Vancouver, ISO, and other styles
41

Herradi, Noura. "Représentation sémantique multilingue, multiculturelle et temporelle des relations interpersonnelles, appliquée à une prothèse de mémoire." Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1205/document.

Full text
Abstract:
Dans ce travail de thèse, nous proposons une base de connaissances, destinée à une prothèse de mémoire « intelligente », appelée CaptainMemo, qui a pour but d’aider les malades d’Alzheimer, à pallier leurs problèmes de dégénérescence mnésique. Cette base de connaissances est basée sur l’ontologie temporelle, multiculturelle et multilingue PersonLink, permettant à la prothèse de mémoire une représentation sémantique rigoureuse, multilingue et temporelle des liens interpersonnels. L’ontologie PersonLink est déréférençable et présente dans le Web de données.Le multilinguisme et la représentation temporelle sont deux grands sujets de recherche en informatique et en Web sémantique en particulier. Le multilinguisme appliqué à la représentation des relations interpersonnelles requiert un traitement spécifique, car il est lié au multiculturalisme. Par ailleurs, le passage d’une culture/langue à une autre s’avère une grande problématique de recherche. En effet, la traduction littérale n’est pas toujours permise, surtout quand il s’agit des relations interpersonnelles, car elles sont culturellement dépendantes. Dans ce contexte, nous proposons une approche permettant la représentation des ontologies dans plusieurs cultures/langues. Cette approche, en se basant sur un algorithme de traduction, permet le passage d’une culture/langue à une autre sans faire de la traduction littérale mais plutôt une traduction culturelle. Ainsi, en adoptant cette approche, notre ontologie PersonLink permet une représentation exacte des relations interpersonnelles, qui prend en considération l’aspect culturel pour la définition de chaque relation, et lui attribue le terme adéquat selon la langue liée à la culture dans laquelle elle est représentée. Les relations interpersonnels régissent à des règles et contraintes qui les définissent selon chaque culture, ces contraintes sont représentées sémantiquement dans l’ontologie PersonLink via OWL2. Cependant, il est difficile de prendre en considération ces contraintes lors de l’introduction de la dimension temporelle pour représenter les intervalles de temps de ces relations interpersonnelles, surtout quand ces dernières sont diachroniques et leurs intervalles de temps sont qualitatifs. En effet, les modèles et solutions déjà existantes permettent de faire une représentation temporelle des intervalles de temps (ex 4D-Fluents), et de lier entre ces intervalles de temps (ex Relations d’Allen), mais ne prennent pas en considération les contraintes sémantiques des relations interpersonnelles. Dans ce sens, nous proposons une approche qui permet une représentation sémantique, basée sur les contraintes OWL2, pour la représentation des intervalles de temps qualitatifs. Enfin, pour traiter l’intelligence de la prothèse de mémoire CaptainMemo, nous proposons une approche pour le raisonnement sur les intervalles dans le temps. Dans cette approche nous introduisons un ensemble de règles SWRL pour affirmer des relations d’Allen temporelles inférées, permettant aux raisonneurs, tel que Pellet qui prend en charge les règles DL-Safe, d’être employés pour l'inférence et la vérification de la cohérence sur les relations temporelles entre différents intervalles de temps. La table des compositions des relations entre intervalles de temps a ainsi été considérablement réduite, car elle se base sur un ensemble tractable de ces relations, ce qui en résulte un temps de traitement de raisonnement plus réduit
In this thesis, we propose a knowledge base for a "smart" memory prosthesis, called CaptainMemo, which aims to help Alzheimer's patients to overcome their memory impairments. This knowledge base is built over the temporal, multicultural and multilingual PersonLink ontology. This ontology gives the memory prosthesis a rigorous, multilingual and temporal semantic representation of interpersonal relationships. The PersonLink ontology is dereferenceable and available in the Linked Data. Multilingualism and temporal representation are two major research topics in computer science and in the Semantic Web in particular.Multilingualism applied to the representation of interpersonal relationships requires specific treatment because it is linked to multiculturalism. In addition, the transition from one culture / language to another is a major research problem. Indeed, literal translation is not always allowed, especially when it comes to interpersonal relationships, because they are culturally dependent. In this context, we propose an approach allowing the representation of ontologies in several cultures / languages. This approach, based on a translation algorithm, allows the transition from one culture / language to another by making a cultural translation rather than a literal one. Thus, by adopting this approach, our PersonLink ontology allows an exact representation of interpersonal relationships, because it takes into consideration the cultural aspect for the definition of each relationship, and assigns the appropriate term according to the language related to this culture. Interpersonal relationships are governed by rules and constraints that define them according to each culture, these constraints are represented semantically in the PersonLink ontology using OWL2. However, it is difficult to consider these constraints when introducing the temporal dimension to represent the time intervals of these interpersonal relationships, especially when these are diachronic and their time intervals are qualitative. Indeed, the legacy models and solutions make it possible to make a temporal representation of the time intervals (e.g. 4D-Fluents), and to link between these time intervals (e.g. Allen Relations), but do not take into account the semantics constraints of interpersonal relationships. In this context, we propose an approach that allows a semantic representation, based on OWL2 constraints, for the representation of qualitative time intervals. Finally, to deal with the intelligence of the CaptainMemo memory prosthesis, we propose an approach for reasoning over time intervals. In this approach we introduce a set of SWRL rules to assert inferred temporal Allen relationships, allowing reasoners, such as Pellet that supports DL-Safe rules, to be used for the inference and the verification of consistency over the temporal relationships between different time intervals. Thus, the table of compositions of the relations between time intervals has been considerably reduced, since it is based on a tractable set of these relations, and, consequently, the processing time of the reasoning becomes shorter
APA, Harvard, Vancouver, ISO, and other styles
42

Brito, Gabrielle de. "Analyse ergonomique du suivi de procédures écrites dans les environnements dynamiques (speed) appliquée à l'aéronautique." Paris 5, 2000. http://www.theses.fr/2000PA05H057.

Full text
Abstract:
Dans le domaine aéronautique, la sécurité des vols repose sur un grand nombre d'automatismes et sur respect de procédures écrites, élaborées par les constructeurs et les compagnies. La problématique recherche de cette thèse est née du constat que parmi les causes d'accidents graves dans le domaine aéronautique, les déviations aux procédures constituent la cause le plus souvent invoquée. Si la nécessité de ces procédures semble aujourd'hui globalement admise par l'ensemble des acteurs du milieu de l'aviation civile, il n'en est pas de même concernant leur contenu et leur utilisation. Cette thèse présente une analyse psycho-cognitive de la tâche d'utilisation des procédures écrites. Pour se faire, nous avons proposé un modèle appelé SPEED (suivi de procédures écrites dans les environnements dynamiques) en vue de comprendre l'usage des procédures écrites dans les environnements dynamiques ainsi que les raisons qui conduisent les opérateurs, à ne pas toujours utiliser les procédures conformément règles établies par le constructeur et leurs compagnies. Ce modèle décompose en neuf étapes les activités impliquées dans le suivi de procédures écrites : (1) la détection des conditions d'emploi des écrites, (2) l'élaboration d'un diagnostic, (3) l'estimation du besoin de procédure écrite, (4) la recherche de procédure écrite, (5) la lecture des items de la procédure écrite, (6) l'évaluation de la pertinence, (7) la planification des actions écrites, (8) l'exécution des instructions lues et (9) l'évaluation des résultats de l'action. SPEED ne doit pas être considéré comme un modèle séquentiel mais plutôt comme un itératif, ou les étapes peuvent être facultatives.
APA, Harvard, Vancouver, ISO, and other styles
43

Guilleminot, Christian. "Décomposition adaptative du signal de parole appliquée au cas de l'arabe standard et dialectal." Besançon, 2008. http://www.theses.fr/2008BESA1030.

Full text
Abstract:
Le présent travail introduit en phonétique la décomposition atomique du signal, appelée aussi Matching Pursuit, traite les fichiers d'atomes par compression sans perte et enfin mesure la distance des fichiers comprimés par des algorithmes de Kolmogorov. L’étalonnage est basé sur une première analyse classique de la coarticulation de séquences sonores VCV et CV, (ou V ∈ {[i] [u] [a]} et C ∈ {[t] [d] [s] [δ]}∪{[tʕ] [dʕ] [sʕ [δʕ]}, extraites d’un corpus issu de quatre régions arabophones. L’équation de locus de CV vs CʕV, permet de différencier les variétés de langue. La deuxième analyse applique un algorithme de décomposition atomique adaptative ou Matching Pursuit sur des séquences VCV et VCʕV du même corpus. Les séquences atomiques représentant VCV et VCʕV sont ensuite compressées sans perte et la distance entre elles est recherchée par des algorithmes de Kolmogorov. La classification des productions phonétiques et des régions arabophones obtenue est équivalente à celle de la première méthode. Ce travail montre l’intérêt de l’introduction de Matching Pursuit en phonétique, la grande robustesse des algorithmes utilisés et suggère d’importantes possibilités d’automatisation des processus mis en oeuvre, tout en ouvrant de nouvelles directions d’investigation
The present work introduces in phonetics, the atomic decomposition of the signal also known as the Matching Pursuit and treats a group of atoms by compression without losses and finally measures the distance of the list of atoms compressed using the Kolmogorov's algorithms. The calibration is based on an initial classical analysis of the co-articulation of sound sequences of VCV and CV, or V ∈ {[i] [u] [a]} and C ∈ {[t] [d] [s] [δ]}∪ [tʕ] [dʕ] [sʕ [δʕ]} the excerpts culled from a corpus made up of four arabic speaking areas. The locus equation of CV vs CʕV, makes it possible to differentiate the varieties of the language. In the second analysis, an algorithm of atomic adaptative decomposition or Matching Pursuit is applied to the sequences VCV and VCʕV still on the same corpus. The atomic sequences representing VCV et VCʕV are then compressed without losses and the distances between them are searched for by Kolmogorov's algorithms. The classification of phonetic recordings obtained from these arabic speaking areas is equivalent to that of the first method. The findings of the study show how the introduction of Matching Pursuit's in phonetics works, the great robustness of the use of algorithms and suggesting important possibilities of automation of processes put in place, while opening new grounds for further investigations
APA, Harvard, Vancouver, ISO, and other styles
44

Ménigot, Sébastien. "Commande optimale appliquée aux systèmes d'imagerie ultrasonore." Phd thesis, Université François Rabelais - Tours, 2011. http://tel.archives-ouvertes.fr/tel-00657980.

Full text
Abstract:
Les systèmes d'imagerie médicale ultrasonore ont considérablement amélioré le diagnostic clinique par une meilleure qualité des images grâce à des systèmes plus sensibles et des post-traitements. La communauté scientifique de l'imagerie ultrasonore a consenti à un très grand effort de recherche sur les post-traitements et sur le codage de l'excitation sans s'intéresser, outre mesure, aux méthodes de commande optimale. Ce travail s'est donc légitimement tourné vers les méthodes optimales basées sur l'utilisation d'une rétroaction de la sortie sur l'entrée. Pour rendre applicable ces méthodes, ce problème complexe de commande optimale a été transformé en un problème d'optimisation paramétrique sous-optimal et plus simple. Nous avons appliqué ce principe au domaine de l'imagerie ultrasonore : l'échographie, l'imagerie harmonique native et l'imagerie harmonique de contraste avec ou sans codage de la commande. La simplicité de l'approche nous a permis, par une modification de la fonction de coût, de l'adapter à l'imagerie harmonique. Cette adaptation montre que la méthode peut être appliquée à l'imagerie ultrasonore en générale. Aujourd'hui, les enjeux de l'imagerie ultrasonore portent non seulement sur les traitements des excitations ou des images mais aussi sur les capteurs. Ce point nous a conduit naturellement à rechercher la commande optimale des transducteurs capacitifs (cMUT) afin de les adapter à une utilisation plus large en imagerie ultrasonore codée. Nos méthodes de compensation et de codage par commande optimale procurent des résultats très prometteurs qui vont au delà de nos espérances. Le champ d'applications de nos méthodes de codage optimal est large et nous n'en voyons pas forcément encore toutes les limites. L'atout majeur de nos approches est leur simplicité d'utilisation et d'implémentation. En effet, elles ne nécessitent pas d'informations a priori difficilement accessibles sur les outils utilisés ou milieux explorés. Notre système s'adapte automatiquement aux variations qui peuvent être liées au vieillissement du capteur ou à la modification du milieu exploré.
APA, Harvard, Vancouver, ISO, and other styles
45

Menet, Ludovic. "Formalisation d'une approche d'Ingénierie Dirigée par les Modèles appliquée au domaine de la gestion des données de référence." Paris 8, 2010. http://www.theses.fr/2010PA083184.

Full text
Abstract:
Notre travail de recherche s'inscrit dans la problématique de la définition de modèles de données dans le cadre de la Gestion des données de Référence ou Master Data Management. En effet, l'Ingénierie Dirigée par les Modèles (IDM) est un thème en pleine expansion aussi bien dans le monde académique que dans le monde industriel. Elle apporte un changement important dans la conception des applications en prenant en compte la pérennité des savoir-faire, des gains de productivité et en tirant profit des avantages des plateformes sans souffrir d'effets secondaires. L'architecture IDM se base sur la transformation de modèle pour aboutir à une solution technique sur une plateforme de notre choix à partir de modèles métier indépendants de toute plateforme. Dans cette thèse une démarche conceptuelle et expérimentale de l'approche IDM est appliquée à la définition de modèles de données pivot qui sont la base de la Gestion des Données de Référence ou Master Data Management (MDM). Ainsi utilisons nous UML (Unified Modeling Language), comme formalisme pour décrire les aspects indépendants de la plateforme (modèle métier), et nous proposons un métamodèle, sous la forme d’un profil UML, pour décrire les aspects dépendants de la plateforme MDM. Ensuite, nous présentons notre démarche pour passer d'un modèle métier vers un modèle de plateforme pour pouvoir générer le modèle pivot physique. Les apports de cette thèse sont : l'étude d’une approche IDM dans le contexte du MDM, la définition de transformations d’UML vers un modèle MDM (basé sur une structure XML Schema), d'autre part nous apportons un aspect inédit à l’IDM appliquée au MDM à savoir la définition d’une méthode de validation incrémentale de modèles permettant d’optimiser les phases de validation lors de la conception de modèles
Our research work is in line with the problematic of data models definition in the framework of Master Data Management. Indeed, Model Driven Engineering (MDE) is a theme in great expansion in the academic world as well as in the industrial world. It brings an important change in the conception of applications taking in account the durability of savoir-faire and of gains of productivity, and taking profits of platforms advantages without suffering of secondary effects. The MDE architecture is based on the transformation of models to come to a technical solution on a chosen platform from independent business models of any platform. In this thesis, a conceptual and technical thought process of the MDE approach is applied to the definition of pivot data models, which are the base of Master Data Management (MDM). Thus, we use Unified Modeling Language (UML) as formalism to describe the independent aspects of the platform (business model), and we propose a meta-model, in the form of an UML profile, to describe the dependent aspects of the MDM platform. Then, we present our approach to move from a business model to a platform model to be able to generate the physical pivot model. The inputs of the thesis are : the study of a MDE approach in the MDM context, the definition of UML transformations towards a MDM model (based on a XML Schema structure), besides we bring a new aspect to MDE applied to MDM, that is to say the definition of a method for incremental model validation allowing the optimization of validation stages during model conception
APA, Harvard, Vancouver, ISO, and other styles
46

Saddem, Ramla. "Diagnosticabilité modulaire appliquée au Diagnostic en ligne des Systèmes Embarqués Logiques." Phd thesis, Ecole Centrale de Lille, 2012. http://tel.archives-ouvertes.fr/tel-00861200.

Full text
Abstract:
Aujourd'hui, les systèmes embarqués sont de plus en plus utilisés pour contrôler les systèmes complexes. Dans ce travail de thèse, nous nous intéressons aux systèmes embarqués critiques utilisés pour la commande de systèmes de transport comme les systèmes ferroviaires. Le but de ce travail est de permettre la conception de systèmes tolérants aux fautes pour le contrôle-commande des systèmes de transport. Nous proposons une nouvelle approche de modélisation des systèmes embarqués temporisés pour le diagnostic de leurs fautes. Elle est basée sur une décomposition structurelle du système et sur une extension de la diagnosticabilité modulaire au contexte des systèmes temporisés. On distingue deux approches de base pour le diagnostic de fautes des SED, une approche basée sur les diagnostiqueurs et une approche basée sur les signatures temporelles causales (STC). La principale limite de l'approche diagnostiqueur réside dans la gestion de l'explosion combinatoire. Dans ce travail, notre verrou principal est de combattre cette limite. Nous proposons une nouvelle méthode basée sur l'ingénierie par les modèles pour le diagnostic des systèmes embarqués critiques. D'autre part, la limite majeure de l'approche STC est la garantie de la cohérence d'une base de STC. Un deuxième niveau de difficulté réside dans l'interprétation des événements en entrée du système de diagnostic dans le cadre de l'hypothèse de défaillances multiples. Dans ce travail, nous proposons deux méthodes différentes pour la vérification de la cohérence d'une base de STC et nous proposons un algorithme d'interprétation basé sur le concept de monde qui garantit la correction du diagnostic
APA, Harvard, Vancouver, ISO, and other styles
47

De, Mezzo Benoît. "Reconnaissance d'objets par la génération d'hypothèses de modèles de forme appliquée à l'extraction des feuilles de plantes dans des scènes naturelles complexes." Montpellier 2, 2004. http://www.theses.fr/2004MON20153.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Depierre, Amélie. "La Composition en anglais scientifique : application au domaine de la physico-chimie." Littoral, 2001. http://www.theses.fr/2001DUNK0070.

Full text
Abstract:
Issue d'expériences et d'interrogations pédagogiques, cette recherche a pour double objectif d'une part de faire la synthèse des travaux existants en matière de composés et autres groupes nominaux complexes en anglais, et d'autre part d'appliquer les acquis théoriques afin de venir en aide aux étudiants et chercheurs francophones qui ont besoin de communiquer (comprendre et s'exprimer) en anglais. Après un tour d'horizon des critères de définition et de distinction des composés, puis des investigations en corpus, une nouvelle classification morphologique des composés binaires a été effectuée, suivie de l'examen des relations sémantiques entre les éléments, et d'une extension aux composés à plus de deux lexèmes. Une attention particulière a été accordée aux composés néo-classiques et aux sigles, spécialement abondants dans le domaine scientifique, ainsi qu'au contraste entre trois structures concurrentes : N₂ N₁, N₂'s N₁ et N₁ of N₂, qui constituent une source non-négligeable d'erreurs d'encodage chez les francophones. Finalement, un glossaire électronique des termes du domaine assortis d'exemples de phrases attestées, est proposé au format Excel, un des objectifs post-thèse étant d'étendre ce glossaire et de le mettre au format HTML, afin de le rendre plus accessible, car c'est un outil flexible et exportable à d'autres domaines
This study stems from teaching experience and comes as a response to students' questions and errors. It has two main objectives : on the one hand a critical review of existing research on compounds and other complex nominals in English, and on the other hand the application of the theoretical data available in order to help French-speaking students and researchers, who need to communicate (understand, speak and write) in English, namely in the domain of physico-chemical sciences. After a survey of the characteristics of compounds, and an investigation of axamples taken from several corpora, a new morphological classification of binominal compounds is suggested, then the semantic relations between their elements are pointed out. The results are extended to longer nominals, with a particular attention paid to words built from Greek and Latin bases, and acronyms, which abound in the field of sciences. These competing structures : N₂ N₁, N₂'s N₁ and N₁ of N₂ are contrasted, as they are a major source of error among French speakers, especially at the encoding stage. Lastly, an electronic glossary in Excel format including some of the terms of the domain, together with examples of attested sentences, has been developed. One of the future objectives is to transfer the glossary in HTML format in order to make it more available for use in various domains
APA, Harvard, Vancouver, ISO, and other styles
49

Hartmann, Chris. "Automatisation de la synthèse d’architectures appliquée aux aéronefs à voilure tournante." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0002/document.

Full text
Abstract:
Les travaux, présentés dans ce manuscrit de thèse, s’inscrivent dans les courants de l’Ingénierie Système et de la synthèse assistée par ordinateur. Une méthodologie outillée à l’aide d’un logiciel a été développée et est détaillée. Le processus de synthèse semi-automatisé est organisé en trois grandes phases : l’extraction du besoin et sa transformation en spécification du système à concevoir, une synthèse des architectures logiques et une analyse des architectures physiques. L’extraction et la transformation du besoin est une étape manuelle dans la méthodologie proposée. Elle s’appuie grandement sur des travaux précédents du champ de l’Ingénierie Système. L’objectif de ce sous-processus est d’obtenir une représentation du système compréhensible par l’utilisateur et interprétable par le logiciel. Les parties prenantes, les situations de vie que le système va rencontrer, les besoins, les exigences et les interfaces avec l’environnement sont modélisés. La synthèse, ou génération, des architectures logiques, est le résultat de la modélisation précédente du système. Un code C++ permet la transformation du problème de synthèse en expressions mathématiques qui sont résolues à l’aide d’un solveur CSP entier. Le résultat de ce sous-processus est un ensemble de graphes, triés par famille. Ces graphes représentent toutes les architectures logiques viables vis-à-vis des connexions entre ses sous-systèmes. L’analyse des architectures physiques permet d’écrire, pour chaque architecture logique, un système d’équations physiques non-linéaires mais non différentielles pour une première étape de prédimensionnement. Ces systèmes, écrits sous la forme de problèmes d’optimisation sont ensuite résolus à l’aide d’un solveur CSP réel. Au final, les architectures sont triées suivant la valeur d’une variable d’état commune à toutes les alternatives
The research work presented in this thesis is related to the System Engineering field and the computer aided synthesis field. A methodology realized by a newsoftware is developed and introduced. The synthesis process is semi-automated and is devided into three phases: the need extraction and its translation into system requirements, a logical architecture synthesis and a physical architecture analysis. The need extraction and its translation into system requirements are highly inspired from previous work from the System Engineering field. Nevertheless, the objective, at this step, is to provide the software and the user with a unique model understandable to both. Stakeholders, life situations, needs, requirements and interfaces with the environment are modelized. The logical architecture synthesis, or logical architecture generation, is in accordance with the models we build previoulsy. That is to say that all logical architectures are instantiations of the system requirements expressed before. A C++ code translates this model into mathematical equations solved by an integer CSP solver. The result of this part of the methodology is a set of graphs, ranked by family. These graphs are views of the logical architectures. They express all the possible links between the sub-systems of the architectures. The physical architecture analysis step is an automated equation writer. The equations are non-linear and non differential and they are written for each logical architecture generated at the previous step. They are used for a first step of pre-sizing. These systems are then solved by a CSP solver for real numbers through an optimization. At the end, all the feasible architectures are ranked according to a unique state variable that iscommon to all possible solutions
APA, Harvard, Vancouver, ISO, and other styles
50

Alvarez, Aldana José Alfredo. "Une méthode de test fonctionnel en-ligne basée sur une approche de monitorage distribuée continue appliquée aux systèmes communicants." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL005/document.

Full text
Abstract:
Les réseaux MANET représentent un domaine important de recherche en raison des nombreuses opportunités découlant des problématiques et des applications inhérentes à ce type de réseau. Les problématiques les plus récurrentes sont la mobilité, la disponibilité ainsi que les ressources limitées. Un intérêt bien connu dans les réseaux et donc dans les MANET est de monitorer les propriétés de ce réseau et de ses nœuds. Les contraintes des MANET peuvent avoir un impact significatif sur les efforts mis en œuvre pour les monitorer. La mobilité et la disponibilité peuvent créer des résultats incomplets pour le monitorage. Les propriétés usuelles utilisées en monitorage sont simples, comme notamment la consommation moyenne du processeur, la bande passante moyenne, etc. De plus, l'évolution des réseaux a conduit à un besoin croissant d'examiner des comportements plus complexes, dépendants et imbriqués. La littérature indique que la précision des valeurs obtenues par monitorage et donc des approches n'est pas fiable et difficile à atteindre en raison des propriétés dynamiques du MANET. Nous proposons donc des architectures de surveillance décentralisées et distribuées qui reposent sur de multiples points d'observation. L'approche décentralisée combine des algorithmes dits hiérarchiques et de ‘gossip’ pour fournir une approche de monitorage efficace. Grâce à des expérimentations approfondies, nous avons conclu que même si nous étions en mesure d'atteindre d’excellentes performances, la fragmentation du réseau a toujours un impact sévère sur la méthodologie mise en place. Essayant d'améliorer notre technique, nous avons proposé une approche distribuée pour améliorer l'efficacité et la précision globale.Il fournit un mécanisme de consensus qui lui permet d'agréger de nombreux résultats fournis par plusieurs nœuds et fournit un résultat plus significatif et plus précis. Nous soutenons notre proposition avec de nombreuses définitions mathématiques qui modélisent les résultats locaux pour un seul nœud et les résultats globaux pour le réseau. Nos expériences ont été évaluées avec un émulateur construit en interne qui s'appuie sur Amazon Web Services, NS-3, Docker et GoLang avec un nombre variable de nœuds, la taille du réseau, sa densité, la vitesse des nœuds, les algorithmes de mobilité et les délais. Grâce à cet émulateur, nous avons pu analyser plusieurs aspects en fournissant des testbeds reproductibles, documentés et accessibles. Nous avons obtenu des résultats prometteurs pour les deux approches, et surtout pour l'approche distribuée en particulier en ce qui concerne la précision des valeurs obtenues par monitorage
MANETs represent a significant area of network research due to the many opportunities derived from the problematics and applications. The most recurring problematics are the mobility, the availability and also the limited resources. A well-known interest in networks and therefore in MANETs is to monitor properties of the network and nodes. The problematics of the MANETs can have a significant impact on the monitoring efforts. Mobility and availability can create incomplete results for the monitoring. The usual properties discussed in monitoring are simple ones, e.g., average CPU consumption, average bandwidth and so on. Moreover, the evolution of networks has led to an increasing need to examine more complex, dependent and intertwined behaviors. The literature states that accuracy of the approaches is not reliable and difficult to achieve due to the dynamic properties of the MANET. Therefore, we propose a decentralized and distributed monitoring architecture that rely on multiple points of observation. The decentralized approach combines gossip and hierarchical algorithms to provide an effective monitoring approach. Through extensive experimentation, we concluded that although we were able to achieve exceptional performance, network fragmentation still has a harsh impact on the approach. Trying to improve our approach, we proposed a distributed approach, relying on stronger bedrock to enhance the overall efficiency and accuracy. It provides a consensus mechanism that allows it to aggregate and provides a more meaningful and accurate result. We support our proposal with numerous mathematical definition that models local results for a single node and global results for the network. Our experiments were evaluated with an emulator built in-house that relies on Amazon Web Services, NS-3, Docker and GoLang with varying number of nodes, network size, network density, speed, mobility algorithms and timeouts. Through this emulator, we were able to analyze multiple aspects of the approaches by providing a repeatable, documented and accessible test beds. We obtained promising results for both approaches, but for the distributed approach, especially regarding accuracy
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography