Siga este enlace para ver otros tipos de publicaciones sobre el tema: Exploration de l'espace des solutions.

Tesis sobre el tema "Exploration de l'espace des solutions"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Exploration de l'espace des solutions".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Pouget, Julien. "Test des systèmes sur puce : ordonnancement et exploration de l'espace des solutions architecturales". Montpellier 2, 2002. http://www.theses.fr/2002MON20094.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Garbay, Thomas. "Zip-CNN". Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS210.pdf.

Texto completo
Resumen
Les systèmes numériques utilisés pour l'Internet des Objets (IoT) et les Systèmes Embarqués ont connu une utilisation croissante ces dernières décennies. Les systèmes embarqués basés sur des microcontrôleurs (MCU) permettent de résoudre des problématiques variées, en récoltant de nombreuses données. Aujourd'hui, environ 250 milliards de MCU sont utilisés. Les projections d'utilisation de ces systèmes pour les années à venir annoncent une croissance très forte. L'intelligence artificielle a connu un regain d'intérêt dans les années 2012. L'utilisation de réseaux de neurones convolutifs (CNN) a permis de résoudre de nombreuses problématiques de vision par ordinateur ou de traitement du langage naturel. L'utilisation de ces algorithmes d'intelligence artificielle au sein de systèmes embarqués permettrait d'améliorer grandement l'exploitation des données récoltées. Cependant le coût d'exécution des CNN rend leur implémentation complexe au sein de systèmes embarqués. Ces travaux de thèse se concentrent sur l'exploration de l'espace des solutions pour guider l'intégration des CNN au sein de systèmes embarqués basés sur des microcontrôleurs. Pour cela, la méthodologie ZIP-CNN est définie. Elle tient compte du système embarqué et du CNN à implémenter. Elle fournit à un concepteur des informations sur l'impact de l'exécution du CNN sur le système. Un modèle fourni quantitativement une estimation de la latence, de la consommation énergétique et de l'espace mémoire nécessaire à une inférence d'un CNN au sein d'une cible embarquée, quelle que soit la topologie du CNN. Ce modèle tient compte des éventuelles réductions algorithmiques telles que la distillation de connaissances, l'élagage ou la quantification. L'implémentation de CNN de l'état de l'art au sein de MCU a permis la validation expérimentale de la justesse de l'approche. L'utilisation des modèles développés durant ces travaux de thèse démocratise l'implémentation de CNN au sein de MCU, en guidant les concepteurs de systèmes embarqués. De plus, les résultats obtenus ouvrent une voie d'exploration pour appliquer les modèles développés à d'autres matériels cibles, comme les architectures multi-cœur ou les FPGA. Les résultats d'estimations sont également exploitables dans l'utilisation d'algorithmes de recherche de réseaux de neurones (NAS)
Digital systems used for the Internet of Things (IoT) and Embedded Systems have seen an increasing use in recent decades. Embedded systems based on Microcontroller Unit (MCU) solve various problems by collecting a lot of data. Today, about 250 billion MCU are in use. Projections in the coming years point to very strong growth. Artificial intelligence has seen a resurgence of interest in 2012. The use of Convolutional Neural Networks (CNN) has helped to solve many problems in computer vision or natural language processing. The implementation of CNN within embedded systems would greatly improve the exploitation of the collected data. However, the inference cost of a CNN makes their implementation within embedded systems challenging. This thesis focuses on exploring the solution space, in order to assist the implementation of CNN within embedded systems based on microcontrollers. For this purpose, the ZIP-CNN methodology is defined. It takes into account the embedded system and the CNN to be implemented. It provides an embedded designer with information regarding the impact of the CNN inference on the system. A designer can explore the impact of design choices, with the objective of respecting the constraints of the targeted application. A model is defined to quantitatively provide an estimation of the latency, the energy consumption and the memory space required to infer a CNN within an embedded target, whatever the topology of the CNN is. This model takes into account algorithmic reductions such as knowledge distillation, pruning or quantization. The implementation of state-of-the-art CNN within MCU verified the accuracy of the different estimations through an experimental process. This thesis democratize the implementation of CNN within MCU, assisting the designers of embedded systems. Moreover, the results open a way of exploration to apply the developed models to other target hardware, such as multi-core architectures or FPGA. The estimation results are also exploitable in the Neural Architecture Search (NAS)
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Lampaert, Marie-Claire. "Economie de l'espace". Paris, EHESS, 1987. http://www.theses.fr/1987EHES0034.

Texto completo
Resumen
Deux objectifs a notre etude : comparer l'efficacite des methodes pour mesurer l'impact economique et social du secteur spatial et fournir sur cet impact des donnees fiables. Le champ d'application retenu est le canada. Mais en raison de l'interdependance des principaux pays ayant une activite dans le secteur spatial, et surtout de l'experience americaine et europeenne dans ce domaine, les methodes utilisees par ces deux groupes de pays seront analysees. Le chapitre un englobe une presentation generale de l'industrie spatiale ainsi que des principales particularites propres a l'industrie spatiale canadienne. Ce chapitre un met l'accent sur les conditions de creation des structures, leur evolution et leur transformation. Le chapitre deux presente les modeles macroeconomiques utilises notamment pour determiner l'impact indirect du secteur spatial sur l'economie. Ces modeles sont bases sur l'integration de la variable recherche et developpement dans la fonction de production. Le chapitre trois replace la variable rd utilisee par les modeles macroeconomiques dans le processus d'innovation et de diffusion. Les modeles microeconomiques ont pour objectif de determiner la rentabilite de l'output de rd : les innovations et leur diffusion. Ils permettent egalement de differencier entre rentabilite privee et rentabilite sociale des innovations. Les deux chapitres macroeconomiques et microeconomiques s'attachent a montrer l'existence d'un impact positif de la recherche-developpement spatiale (chapitre deux), et a en identifier les principales variables explicatives (chapitre trois). Le chapitre quatre a pour objectif d'identifier et de quantifier les benefices economiques et sociaux des deux grands programmes canadiens (les satellites de telecommunication m-sat et les satellites de teledetection radarsat) et de presenter la prochaine etape dans les applications spatiales (station orbitale)
Two objectives motivate our study : comparing the efficiency of methods to measure the economic and social impact of the space sector and providing reliable data on this impact. The investigating field is canada. But, taking into account the interdependence of the leading countries in the space sector, and moreover the american experience, the methods used by these two groups will be analysed. The first chapter presents the space industry in general, with the main particularities of the canadian space industry. This chapter put the emphasis on the determinants of the creation, evolution and transformation of the structures. The second chapter deals with the macroeconomics models used mainly to measure the indirect impact of the space sector on the economy. These models are based on the integration of the variable research and development (rd) in the production function. The third chapter replaces the variable research and development used in the macroeconomics models in the process of innovation and diffusion. It also allos to differentiate between private return and social return of innovations. These two chapters - macroeconomics and microeconomics - show the exis- tence of a positive impact of the space research and development (chapter 2) and identify the main explicative variable (chapter 3). The fourth chapter intends to identify and quantify the economic and social benefit of two majors canadian space programs (m-sat and radarsat) and presents the next step in space applications : the orbital stations
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Bossuet, Lilian. "Exploration de l'Espace de Conception des Architectures Reconfigurables". Phd thesis, Université de Bretagne Sud, 2004. http://tel.archives-ouvertes.fr/tel-00012212.

Texto completo
Resumen
Ce mémoire présente une méthode d'exploration de l'espace architectural de conception afin de converger rapidement vers la définition d'une architecture reconfigurable efficace pour une application donnée.

Cette méthode intervient très tôt dans le flot de conception, ainsi dès les premières phases de spécification de l'application, les concepteurs peuvent définir une architecture adaptée pour leurs applications. La méthode d'exploration s'appuie principalement sur l'estimation de la répartition des communications dans l'architecture ainsi que sur le taux d'utilisation des ressources de l'architecture. Ces métriques permettent en effet d'orienter le processus d'exploration afin de minimiser la consommation de puissance de l'architecture puisque cette dernière est directement corrélée à ces deux métriques.

Les résultats obtenus montrent que notre méthode permet de converger rapidement vers une architecture efficace en ce qui concerne la consommation de puissance.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

VISCIO, MARIA ANTONIETTA. "Space Exploration Systems, Strategies and Solutions". Doctoral thesis, Politecnico di Torino, 2014. http://hdl.handle.net/11583/2538894.

Texto completo
Resumen
The present thesis describes the PhD research activities dealing with the topic “Space Exploration Systems, Strategies and Solutions”. Traveling beyond low Earth orbit is the next step in the conquest of the solar system and so far, a human expedition to Mars is considered the most interesting goal of future human space exploration. Due to the technological and operational challenges associated with such a mission, it is necessary to define an opportune path of exploration, relying on many missions to intermediate and “easier” destinations, which would allow a gradual achievement of the capabilities required for the human Mars mission. The main scope of this research has been the development of a rigorous and versatile methodology to define and analyze evolutionary exploration scenarios and to provide a detailed technologies’ database, to support strategic decisions for human space exploration. The very innovative aspect of this work regards the development of a flexible methodology which can be followed to assess which are the next destinations for the exploration of space beyond LEO and to preliminarily define mission’s architectures, identifying the most significant needed elements and advanced technologies. The obtained results should be seen as a pure technical reference, as no cost and/or political considerations have been included, and can be exploited to opportunely drive the decisions of the agencies to place investments for the development of specific technologies and get ready for future exploration missions. The first part of the work has been devoted to the definition of a reference human space exploration scenario, which relies on both robotic and human missions towards several destinations, pursuing an increasing complexity approach and looking at a human expedition to Mars as final target. The scenario has been characterized through the assessment of the missions and the relative phases and concepts of operations. Accordingly, the needed space elements, or building blocks, have been identified. In this frame, the concept design of two specific elements has been performed: the first is a pressurized habitation module (Deep Space Habitat) for hosting astronauts during deep space missions; the second is an electrical propulsive module (Space Tug), mainly envisioned for satellites servicing. The last part of the work has focused on the analysis of innovative and enabling technologies, with particular attention to the aspects related to their on-orbit demonstration/validation, prior to their actual implementation in real exploration missions. The PhD has been sponsored by Thales Alenia Space - Italy and the overall work has been performed in different frameworks along the three years, as well as participating to several additional activities. In line with the objectives of the PhD, in 2012 a collaboration between Politecnico di Torino and Massachusetts Institute of Technology has been established (MITOR Project, managed by MIT-Italy Program), with the support of Thales Alenia Space as industrial partner. The MITOR project, titled “Human Space Exploration: from Scenario to Technologies”, has been aimed at identifying and investigating state of the art for Human Space Ex- ploration, enabling elements, subsystems and technologies with reference to a selected scenario and relevant missions and architectures. Part of the nine months activities has been carried out at MIT AeroAstro department. Besides MITOR project, the PhD activities have been carried out in synergy with some other research programs, such as ESA “Human Spaceflight & Exploration Scenario Studies” and STEPS2 project (Sistemi e Tecnologie per l’EsPlorazione Spaziale - phase 2). Furthermore, in 2013 a specific study has been performed in collabora- tion with university “La Sapienza” (Rome), “Osservatorio Astrofisico di Torino” (Astrophysical Observatory of Torino) and DLR (Deutsches Zentrum fr Luft- und Raumfahrt) in Bremen; its main objective has been the analysis of an interplanetary cubesats mission, aimed at space weather evaluations and technologies demonstration.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Pellegrini, Paola <1980&gt. "ACO: parameters, exploration and quality of solutions". Doctoral thesis, Università Ca' Foscari Venezia, 2007. http://hdl.handle.net/10579/724.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

ROSTAND, BRUNO. "Sur l'espace des solutions de la theorie des cordes. Gravite quantique bidimensionnelle". Paris 6, 1991. http://www.theses.fr/1991PA066314.

Texto completo
Resumen
La premiere partie de cette these est consacree a l'etude, selon deux methodes differentes, de l'espace des solutions de la theorie des cordes. La premiere methode consiste en l'etude systematique des deformations de la theorie conforme interne associee a un modele donne. Ces deformations realisent en theorie des cordes le mecanisme de brisure spontanee de symetrie, et constituent donc un moyen d'etude de la conjecture d'universalite des cordes, selon laquelle tous les modeles de cordes presentant les memes symetries de (super reparametrisation de la surface d'univers sont des vides differents de la meme theorie. Les deformations continues sont naturellement associees a des operateurs marginaux integrables; elles sont reinterpretees comme des compactifications non triviales, ce qui permet leur generalisation a des deformations discretes. La seconde methode s'interesse aux points singuliers de l'espace des solutions, et permet d'obtenir une classification des modeles multicritiques toroidaux, qui constituent un sous-ensemble de ces points singuliers. La seconde partie est consacree a l'etude de la gravite quantique bidimensionnelle, et de certaines de ses extensions. Une methode algebrique, basee sur l'integrabilite de la theorie, est appliquee a la gravite, a la supergravite et a la plus simple des theories de toda, et permet en particulier l'etude de leur regime de couplage fort. Une autre methode, basee sur des considerations de symetrie permettant de determiner une action effective, est appliquee aux supergravites etendues, et permet de determiner leurs comportements d'echelle par rapport aux variations des constantes de couplage
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Dubois, Sandrine. "Equations de Navier-Stokes dans l'espace : espaces critiques et solutions d'énergie finie". Amiens, 2002. http://www.theses.fr/2002AMIE0210.

Texto completo
Resumen
On étudie dans ce mémoire quelques aspects qualitatifs des équations de Navier-Stokes incompressibles dans tout l'espace et en l'absence de force extérieure : comportement asymptotique, égalités d'énergie, régularité, stabilité. La vaste littérature disponible sur le sujet propose de multiples formes de ces équations. Dans le premier chapitre, on considère six formulations parmi les plus courantes des équations de Navier-Stokes ainsi que les solutions qui leur sont associées. On montre que sous une hypothèse de régularité raisonnable sur les solutions, les six problèmes sont en fait équivalents. Cela permet ensuite de choisir la forme la plus adaptée à une question donnée. Dans l'ensemble des travaux portant sur les équations de Navier-Stokes, on peut distinguer deux grandes approches. D'une part, les solutions d'énergie finie, construites par Leray en 1934. D'autre part les solutions critiques, c'est-à-dire présentant une invariance d'échelle, dont le premier exemple est donné par Kato et Fujita en 1962. Le deuxième chapitre s'inscrit dans cette seconde approche. On montre que l'ensemble des données initiales donnant lieu à une solution globale (nécessairement unique) dans la classe de Koch et Tataru, ayant de bonnes propriétés, est ouvert dans la fermeture de la classe de Schwartz dans BMO-1 et que la solution associée s'évanouit à l'infini. Les deux approches, solutions d'énergie finie et solutions critiques, peuvent paraître totalement disjointes. L'objet des deux derniers chapitre est de concilier ces deux approches. Dans le chapitre 3, on formalise les méthodes d'unicité fort-faible, qui remontent aux travaux de Leray, pour déterminer quand une solution d'énergie finie (solution faible) est nécessairement critique. On a besoin en général de l'existence d'une solution d'énergie finie critique (solution forte) et d'une bonne estimation du terme trilinéaire où intervient le terme de convection. L'idée du chapitre 4 est moins classique. Il s'agit de donner des conditions suffisantes pour qu'une solution critique issue d'une donnée initiale de carré intégrable vérifie les égalités d'énergie et donc, soit d'énergie finie
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Villard, Caroline. "Sélection dans l'espace des solutions engendrées par un plan de construction géométrique". Université Louis Pasteur (Strasbourg) (1971-2008), 2001. http://www.theses.fr/2001STR13182.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Diguet, Jean-Philippe. "Exploration de l'espace de conception de SOC,de l'asservissement à la coopération". Habilitation à diriger des recherches, Université de Bretagne Sud, 2005. http://tel.archives-ouvertes.fr/tel-00105917.

Texto completo
Resumen
Le domaine de l'electronique embarquee est une dimension essentielle des technologies de
l'information et de la communication. Le terme systemes enfouis désigne son intégration sous
forme de composants d'un système plus complexe issus des domaines de l'avionique, de l'automobile,
des objets mobiles communiquants, du multimedia etc. Leur realisation sous la forme
de systemes sur silicium (SOC) souligne la complexite et l'heterogeneité qui les caractérisent
desormais. La maitrise de la conception des SOC représente un enjeu économique majeur a la
hauteur de la place qu'ils occupent dans tous les secteurs d'activites (industriel, loisirs, domestique).
Les outils et méthodes pour la conception de SOC constituent un domaine de recherche
multi-formes dont le but global est de concevoir rapidement des systemes qui soient fiables,
performants et efficaces d'un point de vue energétique.
Ce document est une synthese de mes recherches effectues dans le domaine général des
outils et methodes de conception de SOC. Plus précisément, les travaux detailles ici traitent des
differents aspects d'un domaine unique a savoir l'exploration de l'espace de conception des SOC
eventuellement reconfigurables. Ces travaux de recherche s'articulent principalement autour de
six projets menes depuis la these de doctorat. Il s'agit de l'exploration de la hierarchie memoire,
du projet Design Trotter pour l'exploration des solutions architecturales de la specification
algorithmique jusqu'au niveau tache au sens temps réel. Dans le domaine de la gestion des
entrees/sortie les projets presentes traitent d'un exemple d'interface reseau / flux multimédia
et d'un environnement μSpider de synthese et de dimensionnement de Network On Chip. Enfin,
le document présente le projet en cours dans le domaine des architectures auto-reconfigurables.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Gaudard, François-Charles. "Contribution à l'analyse des discours littéraires : exploration stylistique de l'espace poétique baudelairien". Toulouse 2, 1989. http://www.theses.fr/1989TOU20035.

Texto completo
Resumen
Cette these a pour contexte scientifique les travaux actuels concernant l'analyse de discours. La perspective choisie est stylistique puisqu'on a cherche a repondre dialectiquement a une double problematique : comment decrire methodiquement et objectivement des discours litteraires (textes) et comment evaluer un discours litteraire particulier? il a donc fallu d'abord se demander quelles bases scientifiques pouvaient etre efficaces pour la description et le classement des objets analyses, et soumettre ensuite la methode elaboree a l'epreuve de la verification : l'oeuvre poetique de baudelaire a ete selectionnee comme corpus. L'analyse des correspondances (analyse statistique de donnees)a ete appliquee au niveau prosodique du discours poetique baudelairien, pour une exploration de type paragrammatique. La recherche a porte ensuite sur les systemes enonciatifs dans le cadre des oppositions continuite discontinuite discursive et narration description. Enonciation et figurativisation etant indissociables, les constructions figuratives les plus importantes du discours poetique baudelairien ont ete etudiees. L'analyse systematique du corpus a conduit a reconnaitre l'existence de filtres stylistiques a caracteres conventionnel et institutionnel, de modeles soumis a variations, mais devant etre reconnus pour qu'il y ait acces a la connaissance
This thesis is set in the scientific context of present research concerning discourses analysis. The chosen perspective is a stylistic one since i have attempted to bring a dialectical answer to a twofold type of problematics : how to describe literary discourses, methodically and objectively, and how to evaluate a particular literary discourse. Thus i had first to ask myself which scientific methods could be efficiently used to describe and classify the objects of my analysis and i then had to test validity of the method i elaborated. Baudelaire's poetic works have been selected as a corpus. The analysis of correspondences (statistical analysis of data) has been applied at the prosodic level of baudelaire's poetic discourse in view of an exploration of the pragmatic type. My research then bore on the enonciative systems within the frame of such oppositions as discursive continuity discontinuity and narration description, and on the most important figurative constructions. The systematic analysis of my corpus led me to recognize the existence of stylistic filters of conventional and institutional type, and of patterns which are undeniably susceptible to vary but have to be recognized before any acces to knowledge is possible
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Bres, Yannis. "Exploration implicite et explicite de l'espace d'états atteignables de circuits logiques Estérel". Nice, 2002. http://www.theses.fr/2002NICE5767.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

BRES, Yannis. "Exploration implicite et explicite de l'espace d'´etats atteignables de circuits logiques Esterel". Phd thesis, Université de Nice Sophia-Antipolis, 2002. http://tel.archives-ouvertes.fr/tel-00003600.

Texto completo
Resumen
Cette thèse traite des approches implicites et explicites, ainsi que de leur convergence, de l'exploration d'espace d'états atteignables de circuits logiques provenant de programmes réactifs synchrones écrits en Esterel, ECL ou SyncCharts. Nos travaux visent à réduire les coûts de ces explorations à l'aide de
techniques génériques ou spécifiques à notre cadre de travail. Nous utilisons les résultats de ces explorations à des fins de vérification formelle de propriétés de sûreté, de génération d'automates explicites ou de génération de séquences de tests exhaustives. Nous décrivons trois outils.
Le premier outil est un vérificateur formel implicite, à base de Diagrammes de Décisions Binaires (BDDs). Ce vérificateur présente plusieurs techniques permettant de réduire le nombre de variables impliquées dans les calculs d'espace d'états. Nous proposons notamment l'abstraction de variables à l'aide d'une logique trivaluée. Cette nouvelle méthode étend la technique usuelle de remplacement de variables d'états par des entrées libres. Ces deux méthodes calculant des sur-approximations de l'espace d'états atteignables, nous proposons différentes techniques utilisant des informations concernant la structure du modèle et permettant de réduire la sur-approximation.
Le deuxième outil est un moteur d'exploration explicite, basé sur l'énumération des états accessibles.
Ce moteur repose sur la simulation de la propagation du courant électrique dans les portes du circuit et supporte les circuits cycliques. Ce moteur comporte de nombreuses optimisations et fait appel à différentes heuristiques visant à éviter les explosions en temps ou en espace inhérentes à cette approche, ce qui lui
confère de très bonnes performances. Ce moteur a été appliqué à la génération d'automates explicites et à la vérification formelle.
Enfin, le troisième outil est une évolution hybride implicite/explicite du moteur purement explicite. Dans cette évolution, les états sont toujours analysés individuellement mais symboliquement à l'aide de BDDs. Ce moteur a également été appliqué à la génération d'automates explicites, mais il est plutôt destiné à la vérification formelle ou la génération de séequences de tests exhaustives.
Nous présentons des résultats d'expérimentations de ces différentes approches sur plusieurs exemples industriels.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Braga, Marília Dias Vieira. "L'Espace de solutions du tri par inversions et sons utilisation dans l'analyse réarrangements de génomes". reponame:Repositório Institucional do INMETRO, 2009. http://hdl.handle.net/10926/1087.

Texto completo
Resumen
Submitted by Ester Silva (ebsilva@inmetro.gov.br) on 2011-05-16T17:06:58Z No. of bitstreams: 1 braga-thesis.pdf: 7205874 bytes, checksum: eddbeaa748b4e3ce17902126e124c0c1 (MD5)
Approved for entry into archive by Catarina Soares(cfsoares@inmetro.gov.br) on 2011-06-16T14:22:13Z (GMT) No. of bitstreams: 1 braga-thesis.pdf: 7205874 bytes, checksum: eddbeaa748b4e3ce17902126e124c0c1 (MD5)
Made available in DSpace on 2011-06-16T14:22:13Z (GMT). No. of bitstreams: 1 braga-thesis.pdf: 7205874 bytes, checksum: eddbeaa748b4e3ce17902126e124c0c1 (MD5) Previous issue date: 2009
RÉSUMÉ: Le calcul de la distance d’inversion et celui d’une séquence optimale d’inversions pour transformer un génome dans um autre sont, des outils algorithmiques très utiles pour l’analyse de scénarios d’évolution réels. Quand les duplications de génes ne sont pas acceptées, il existe des algorithmes polynomiaux pour résoudre ces deux problèmes. Néanmoins, le nombre de séquences optimales différentes est très grand, et il faut alors considérer d’autres critères pour pouvoir réaliser une analyse plus précise. Une stratégie possible est celle de chercher les séquences qui respectent certaines contraintes biologiques, comme par exemple les intervalles communs, qui sont les ensembles de gènes co-localisés dans les génomes analysés - une séquence d’inversions qui ne sépare pas les intervalles communs doit être plus réaliste qu’une séquence qui sépare. Une autre approche est celle de générer l’univers de toutes les séquences optimales, mais, comme cet ensemble peut être trop grand pour être interpreté, un modèle pour regrouper des sous-ensembles de séquences optimales dans des classes d’équivalence a été proposé, ce qui permet de réduire la taille de l’ensemble à traiter. Néanmoins, le problème de trouver les classes sans énumérer toutes les solutions optimales restait ouvert. Un de nos résultats les plus importants est, donc, l’algorithme qui donne une réponse à ce problème, cest-à-dire, un algorithme qui génère une séquence optimale par classe d’équivalence et qui donne aussi le nombre de séquences par classe, sans énumérer toutes les spequences. Mais, bien que le nombre de classes soit beaucoup plus petit que le nombre de séquences, il peut être encore tropo grand. On propose alors l’utilisation de différentes contraintes biologiques, comme les intervalles communs (détectés initialement et progressivement), pour réduire le nombre de classes, et on montre comment utiliser ces méthodes pour analyser des cas réels d’evolution. En particulier, on analyse le scénario évolutif de la bactérie Rickettsia et des chromosomes sexuels X et Y chez l’être humain. Par rapport aux résultats des études précédentes, qui se sont basées sur une seule séquence optimale, on obtient une meilleure caractérisation de ces scénarios évolutifs. Tous les algorithmes développés sont implémentés en java, integrés à BAOBABLUNA, um logiciel qui contient des outils pour manipuler des génomes et des inversions. Le téléchargement et le tutoriel de BAOBABLUNA sont disponibles en ligne. Un autre résultat de notre travail est un modèle pour calculer une mesure de similarité entre deux génomes quand les duplications de gènes sont acceptées. On a montré que notre approche, qu’on appelle repetition-free longest common subsequence (RFLCS), est um problème NP-difficile, comme les autres approches qui considèrent aussi des gènes dupliqués pour calculer une distance génomique. ____________________________________________________________________________________.
ABSTRACT: Calculating the reversal distance and finding one optimal sequence of reversals to transform a genome into another are useful algorithmic tools to analyse real evolutionary scenarios. When gene duplications are not allowed, there are polynomial algorithms to solve both problems. However, the number of different optimal sorcing sequences is usually huge and some additional criteria should be talten in consideration in order to obtain a more accurate analysis.One strategy is searching for sequences that respect some biological constraints, such as the common intervals, which are the list of clusters of co-localised genes between the considered genomes - an optimal sequence of reversals that does not brealt the common intervals may be more realistic than one that does break. Another approach is to explore the whole universe of sorting sequences, but, since this set may be too big to be directly interpreted, a model has been proposed to group the sorting sequences into classes of equivalence, reducing thus the size of the set to be handled. Nevertheless, the problem of finding an algorithm to direct generate the classes without enumerating all sequences was stated to be open. One of che most important results of our work is such an algorithm, and besides one representative, we are also able to give the number of sequences in each equivalence class. Although the number of classes is much smaller than the number of sorting sequences, it can also be too big. We then propose che use of different biological constr'aints, such as the common intervals (initially and progrwsively detected), to reduce the universe of sequences and classes, and show how to apply these methods to analyze real cases in evolution. In particular, we analyze the evolution of the Rickettesia bacterium, and of the sexual chromosomes X and Y in human. We obtain a better characterization of the evolutionary scenarios of these genomes, with respect to the results of previous studies, that were based on a single sorting sequence. All the algorithms developed in this work are implemented, integrated to BAQBLABLUNA a java framework to deal with genomes and reversals. Download and tutorial for BAQBABLUNA are available on-line.Another result of our work is a model to compute a measure of similarity between genomes when duplications are allowed. Our approach, that is called repetition-free longest common subsequence (RFLCS), was proven to lead to an NP-hard problem, as well as other approaches to compute a genomic distance measure considering gene duplications. Keywords: Evolutions, rearrangements de genomes,Algorithms, Sorting by reversals
[202] f. : il., tab.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Davin, Tanguy. "Refroidissement des moteurs électriques : exploration des solutions à huile de lubrification". Thesis, Valenciennes, 2014. http://www.theses.fr/2014VALE0003/document.

Texto completo
Resumen
Le moteur électrique est l’un des organes principaux d’un véhicule électrique. Sa température, notamment celle des bobines, doit être réduite pour éviter toute dégradation. Le refroidissement par l’extérieur, comme avec une chemise d’eau dans le carter, apparait limité car les pertes générées dans les bobines doivent traverser des zones où la conduction thermique est très mauvaise. L’extraction des calories au cœur de la machine est préférable, mais les échanges thermiques avec l’air sont modérés. En application automobile, le moteur électrique est situé à proximité d’un circuit d’huile de lubrification. Le refroidissement par l'huile en contact direct avec les bobines est étudié.La thèse s’est d’abord attachée à la recherche bibliographique étendue sur les différentes solutions de refroidissement de moteur. Ensuite, les transferts thermiques à l’intérieur du moteur ont été modélisés par méthode nodale. A travers une étude de sensibilité, les principales améliorations thermiques passives ont été dégagées, puis les systèmes de refroidissement eux-mêmes ont été modélisés. Enfin, des essais ont été réalisés sur un banc spécialement conçu. Pour cette partie expérimentale, le refroidissement direct des bobines par circulation d’huile a été étudié en détail. Différents types d’injecteurs d’huile sur les têtes de bobine ont été testés dans diverses conditions de vitesse du rotor, température et débit d’huile.L’objectif de cette thèse est d’analyser l’ensemble des problématiques thermiques liées aux solutions de refroidissement à huile. Il s’agit d’une étude comparative de la performance des solutions à huile entre elles et avec celle d’un refroidissement à eau plus conventionnel
Electric motor is one of the most important elements of an electric vehicle. Some elements, particularly the windings, can be affected by rising heat. External cooling, as water jacket in the case, appears to be limited because the losses generated in windings must pass through zones where conduction is very poor. Cooling in the core of the machine is preferable, but heat transfer with air is poor. Due to the presence of lubricating oil in the vicinity of the motor and the heat transfer enhancement that such a liquid provides, oil circulation on the windings has been considered.The research was first dedicated to an extensive bibliography on the different solutions of motor cooling. Then heat transfer within the motor was modelled by using the lumped system analysis. Thanks to a sensitivity analysis, the main parameters affecting temperature have been identified before cooling systems were modelled. Finally, tests were performed on a specially designed bench. Oil was introduced at each side of the machine to directly cool the stator coil end-windings. Several oil injection patterns were tested. The influence of the oil flow rate, rotation speed and oil temperature has been investigated.The objective of this PHD study is to analyse all the thermal issues related to the oil cooling systems. This is a comparative study of the performance of the oil cooling solutions. Comparison is also done with conventional water cooling
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Dias, Vieira Braga Marilia. "L'espace de solutions du tri par inversions et son utilisation dans l'analyse de réarrangements de génomes". Lyon 1, 2009. http://n2t.net/ark:/47881/m6rv0kvd.

Texto completo
Resumen
Le calcul de la distance d'inversion et la recherche des séquences optimales d'inversions pour transformer un génome dans un autre quand les duplications de gènes ne sont pas acceptées sont des outils algorithmiques très utiles pour l'analyse de scénarios d'évolution réels. Néanmoins, le nombre de séquences optimales différentes est très grand. Avec un modèle proposé antérieurement pour regrouper des sous-ensembles de séquences optimales dans des classes d'équivalence, on a developpé un algorithme qui génère une séquence optimale par classe d'équivalence, sans énumérer toutes les séquences, ce qui permet de réduire la taille de l'ensemble à traiter. On propose aussi l'utilisation de différentes contraintes biologiques, comme les intervalles communs détectés initialement et progressivement, pour réduire le nombre de classes, et on montre comment utiliser ces methodes pour analyser des cas réels d'évolution. En particulier, on analyse le scénario évolutif de la bactérie Rickettsia et des chromosomes sexuels X et Y chez l'être humain. Par rapport aux résultats des études précédentes, qui se sont basées sur une seule séquence optimale, on obtient une meilleure caractérisation de ces scénarios évolutifs. Tous les algorithmes qu'on a developpés sont implémentés en java, integrés à baobabLUNA, un logiciel qui contient des outils pour manipuler des génomes et des inversions. Le téléchargement et le tutoriel de baobabLUNA sont disponibles en ligne
Calculating the reversal distance and searching for optimal sequences of reversals to transform a genome into another when gene duplications are not allowed are useful algorithmic tools to analyse real evolutionary scenarios. However, the number of sorting sequences is usually huge. Using a model previously proposed to group the sorting sequences into classes of equivalence, we developed an algorithm to direct generate the classes without enumerating all sequences, reducing thus the size of the set to be handled. We then propose the use of different biological constraints, such as the common intervals initially and progressively detected, to reduce the universe of sequences and classes, and show how to apply these methods to analyze real cases in evolution. In particular, we analyzed the evolution of the Rickettsia bacterium, and of the sexual chromosomes X and Y in human. We obtain a better characterization of the evolutionary scenarios of these genomes, with respect to the results of previous studies, that were based on a single sorting sequence. All the algorithms developed in this work are implemented, integrated to baobabLUNA, a java framework to deal with genomes and reversals. Download and tutorial for baobabLUNA are available on-line
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Biron, Karole. "Dynamique forme/lumière : exploration du processus de création de l'espace architectural par modèles maquettes/images". Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25823/25823.pdf.

Texto completo
Resumen
L’acte de création est un moment privilégié lors du processus de conception architecturale et artistique. Vu comme une exploration, il offre une grande liberté de réflexion et d’action. C’est entre autres le lieu et le temps de l’imagination, de l’expérimentation matérielle, du développement conceptuel, de la construction de ce qui sera perçu. C’est un moment d’effervescence où l’on manipule intuitivement autant que l’on nomme intellectuellement. Pour les arts de l’espace, de multiples facteurs sont à considérer dès le début du processus. Formes, couleurs, tailles, emplacements et nombre, en sont quelques exemples. Au-delà de chacun de ces paramètres, l’espace, scène de l’ensemble de leurs interactions, devient un objet de création en soi. La recherche s’intéresse particulièrement à la relation spatiale et perceptuelle entre la lumière et l’objet, deux éléments se complétant et se modifiant de multiples façons, dont le potentiel esthétique est évident. Elle propose de réinitialiser le processus de création, par des manipulations simples et directes avec la matière, à travers une expérimentation en maquettes et en images photographiques, deux médiums familiers des architectes. Ces interventions minimales présentent à la fois une grande richesse de relations spatiales et de nombreuses informations sur les ambiances lumineuses. La recherche tente de circonscrire un vocabulaire des principaux paramètres de l’objet et de la lumière, conduisant à l’élaboration d’une méthode d’analyse pouvant aider architectes et artistes dans leurs explorations. Des notions, principes et qualificatifs sur l’espace, la forme, la lumière et la perception, servent à construire les tableaux d’analyse appliqués aux images de l’expérimentation en maquettes et à mettre en relief les éléments les plus actifs visuellement. Ce processus vise principalement à stimuler l’imagination et la créativité en architecture.
The act of creation is a privileged moment at the time of its artistic and architectural process. It is, among other things, the time and place for imagination, for experimentation with matter, for conceptual development and for the construction of what is perceived. It is a moment of enthusiasm and effervescence when we instinctively manipulate as well as conceive intellectually. As for the «Art of space», multiple factors are to be considered from the origin of its process such as, shapes, colours, sizes and positioning. Beyond each of these parameters, space, scene of its multiple interactions, becomes a creation in itself. This research particularly leans on the spatial and perceptual relation between objects and light, two elements completing and modifying each other in various ways, whereas its esthetic potential is obvious. It suggests the resetting of the creative process by direct and simple manipulations with matter, through miniature tryouts and photographic images, two familiar media of architectural practice. These minimal interventions simultaneously present a richness in spatial relations as well as information on luminous surroundings. The research proposes the circumscription of a vocabulary of the main parameters linking objects with light, leading to the elaboration of a method of creation and analysis to assist architects and artists in their creative explorations. The theoretical framework releases notions, principles and terms related to space, form, light and perception, assisting in the construction of physical models to visualize and control aspects of the invention. An exploration of a series of parameters of objects and lighting complete the research in order to stimulate the imagination and creativity in architecture.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

LORINCZ, ERIKA. "Exploration visuo-motrice de l'espace chez le chat : asymetrie fonctionnelle et parallelisme du systeme moteur". Paris 6, 1995. http://www.theses.fr/1995PA066380.

Texto completo
Resumen
L'execution d'un geste de pointage en direction d'une cible mobile a ete utilisee pour etudier chez le chat, les effets de lesions cerebrales et les capacites de recuperation du systeme moteur et visuo-moteur. Une etude sur l'asymetrie fonctionnelle a parallelement ete menee sur l'animal intact. Cette derniere a montre un biais de population gauche plus intense lorsque la pratique de la tache n'est pas encore maitrisee. De plus, la patte preferee est toujours la plus rapide et le plus souvent la plus precise. Ces resultats pourraient refleter une double specialisation de l'hemisphere droit, dans le traitement des informations spatiales et dans celui des taches nouvelles cognitivement complexes. L'analyse des perturbations induites par l'interruption bilaterale simultanee des voies cerebello-thalamo-corticale et cerebello-rubro-spinale a montre que si le declenchement du geste reste retarde de facon permanente, sa precision n'est que transitoirement affectee. D'autres circuits ont donc pris en charge la realisation du pointage. L'une des hypothese implique le cortex parietal dans cette recuperation. La destruction additionnelle de cette structure induit un deficit permanent de la precision du pointage et augmente encore la latence de declenchement du geste. Cependant, les importantes capacites residuelles de ces animaux apres trois lesions cerebrales (thalamus moteur, noyau rouge, et cortex parietal), mettent en evidence l'importance du parallelisme au sein du systeme moteur. Une derniere etude s'est interessee au role du cortex parietal dans la realisation d'associations cognitives entre objets spatialement separes ou non. La destruction bilaterale de cette structure induit une totale incapacite a realiser des associations incompatibles (objets spatialement separes), sans affecter celles des associations compatibles (objets spatialement associes). Ces donnees suggerent une intervention preponderante du cortex parietal dans ce type de tache
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Delay, Erwann. "Prescription de courbures sur l'espace hyperbolique". Phd thesis, Université de Nice Sophia-Antipolis, 1998. http://tel.archives-ouvertes.fr/tel-00011944.

Texto completo
Resumen
La thèse se compose de deux parties.

Première partie :
thème de la courbure scalaire conforme sur l'espace hyperbolique. Nous
apportons ici une étude fine du comportement asymptotique en toute
dimension. Nous traitons toujours d'équations semi-linéaires
générales, avant d'appliquer nos résultats au cas particulier de
l'équation géométrique.

Deuxième partie :
thème de la courbure de Ricci sur l'espace hyperbolique.
Nous obtenons le résultat suivant.
Sur la boule unité de $\R^n$, on considère la métrique
hyperbolique standard $H_0$, dont la courbure de Ricci vaut $R_0$
et la courbure de Riemann-Christoffel vaut ${\cal R}_0$.
Nous montrons qu'en dimension $n\geq10$, pour
tout tenseur symétrique $R$ voisin
de $R_0$, il existe une unique métrique $H$ voisine de $H_0$
dont la courbure de Ricci vaut $R$.
Nous en déduisons, dans le cadre $C^\infty$, que l'image
de l'opérateur de Riemann-Christoffel est une sous-variété
au voisinage de ${\cal R}_0$.
Nous traitons aussi dans cette partie de la courbure de Ricci contravariante
en toute dimension, du problème de Dirichlet à l'infini en dimension 2,
et de quelques obstructions.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Pazos, Escudero Nuria. "Performance estimation for the design space exploration of system-on-chip solutions". [S.l. : s.n.], 2003. http://deposit.ddb.de/cgi-bin/dokserv?idn=969626657.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Bonnin, Gaël. "L'experience de magasinage : conceptualisation et exploration des rôles du comportement physique et de l'aménagement de l'espace". Dijon, 2000. http://www.theses.fr/2000DIJOE016.

Texto completo
Resumen
Afin de se différencier, les distributeurs allouent une part croissante de leurs ressources à la gestion des espaces de vente. Ils espèrent ainsi agir sur l'expérience vécue par les consommateurs et donc créer une valeur différenciée de la visite en magasin. De nombreux travaux ont montré que le magasinage est une activité à l'origine d'expériences, et donc de valeurs, différenciées. En revanche, le processus de création de valeur reste mal connu. L'étude du processus de création d'expérience de magasinage, objet de cette recherche, constitue une première étape dans la connaissance du processus de création de valeur de magasinage. Dans un premier temps, les limites de l'approche dominante en distribution sont mises en avant. Le modèle d'atmosphère aborde le magasin comme une juxtaposition de stimuli physiques, disposant d'un potentiel d'induction émotionnelle. L'aspect interactif de la relation individu/environnement et la dimension sociale de l'espace ne sont pas pris en compte. Le recours à la psychologie sociale de l'environnement permet de combler ces limites et fait émerger le concept d'appropriation comme processus fondamental de création d'expérience du lieu. Le deuxième temps de la recherche consiste en une étude des pratiques d'appropriation des espaces commerciaux. Une analyse sémiotique des parcours et actions des individus a permis de distinguer quatre types d'appropriation. Deux types relèvent de la création d'une expérience fonctionnelle, alors que les deux autres relèvent de la création d'une expérience ludique. Le troisième temps de la recherche a pour objectif d'explorer l'influence de l'aménagement spatial sur l'adoption d'un type d'appropriation. Des répartitions différentes entre types d'appropriation selon les aménagements spatiaux sont observées. L'aménagement de l'espace serait donc un relais majeur de positionnement des enseignes, dans la mesure où il semble favoriser la création de types d'expériences, et donc de types de valeurs, de magasinage.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

André-Minvielle, Pauline. "Exploration de l'espace chez l'enfant et aventure autour de "trois montagnes" d'après une expérience de Piaget". Paris 10, 1985. http://www.theses.fr/1985PA100248.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Vivie, de Régie Jean-Baptiste de. "Recherche de bosons de higgs invisibles a lep2 et exploration de l'espace des parametres du mssm". Paris 11, 2000. http://www.theses.fr/2000PA112080.

Texto completo
Resumen
Une recherche de bosons de higgs dont les produits de desintegration sont invisibles est presentee. La selection des evenements fait appel a des reseaux de neurones dedies au rejet de chacun des bruits de fond les plus importants. Dans les donnees enregistrees en 1998 et 1999 par le detecteur aleph aupres du lep a des energies dans le centre de masse comprises entre 189 et 202 gev, et correspondant a une luminosite integree totale de 411 pb 1, aucun signal n'a ete observe. Une limite inferieure sur la masse du boson de higgs est ainsi determinee. Elle est de 106. 4 gev/c 2 a 95% de niveau de confiance, pour une section efficace de production egale a celle du boson de higgs du modele standard et un rapport d'embranchement en modes invisibles de 100%. L'interpretation des recherches de nouvelles particules dans le cadre de l'extension supersymetrique minimale du modele standard (mssm) est rendue difficile par la presence d'un grand nombre de parametres libres. En general, des valeurs de reference sont choisies pour les parametres pertinents. Le secteur de higgs a ete revisite en relachant certains hypotheses et il a ete montre que les limites sur les masses et les couplages obtenues dans les modeles tres contraints sont robustes. Cependant, pour couvrir certaines configurations absentes dans les cas de reference, des analyses specifiques ont du etre developpees. Les contraintes tres fortes provenant du secteur de higgs peuvent egalement etre utilisees pour obtenir une limite sur la masse du neutralino le plus leger, melange des partenaires supersymetriques du photon, du z, et des bosons de higgs neutres, qui est un tres bon candidat pour la matiere noire. Dans un modele semi-contraint, on obtient m x>38 gev/c 2 a 95% de niveau de confiance, ameliorant ainsi d'environ deux gev/c 2 la limite obtenue sans le secteur de higgs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Minvielle, Pauline André Mme de. "Exploration de l'espace chez l'enfant et aventure autour de trois montagnes, d'après une expérience de Piaget". Lille 3 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37594471n.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Lorenzo, Sarah-Jane Lasek. "Planning Postsecondary Pathways: An Exploration ofCollege and Career Access through Solutions-Based Reporting". Ohio University Honors Tutorial College / OhioLINK, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=ouhonors1502999397675549.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Gaude, Linn Linn. "Megacity Challenges: Safe Food and Education– : an exploration of challenges and possible ICT solutions". Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-150415.

Texto completo
Resumen
In 2012, 50 % of the world’s citizens lived in urban areas. By the year of 2050 that number is estimated to have increased to 70 % with the biggest growth of cities seen in Asia and Africa. Megacities, urban areas with an excess of 10 million inhabitants, are increasing in number and will bring new challenges as well as opportunities. One of humans’ basics needs of survival is food. Today more and more food scandals about dangerous additives or chemicals, fake food, and untruthful listing of ingredients are surfacing in the media. At the same time knowledge about food and where it comes from is decreasing. This report takes a closer look at today’s status of food safety in a megacity context, what this will meanfor all the stakeholders in the food chain, and if and how an ICT concept could be created for supporting the situation. Investigating this makes it possible to learn more about if, why, and in what context an ICT concept could serve a megacity’s inhabitants. The context of the megacity was defined as Beijing due to many food scandals and the fast-paced urbanization trend in China. Information and feedback have been collected during literature research, a survey answered by persons living in Beijing, and brainstorming and ideation sessions that resulted in two examples of possible concepts: FoodBook and FarmConnect. The concepts target problems in transparency, education and corruption for the food industry in Beijing from the consumer’s point of view. The FoodBook is about making safe choices while shopping and being able to get instant and relevant information. As a complement to everyday shopping, FarmConnect is about connecting the consumer with the farmer in an attempt of increasing trust and education. The concepts were discussed during interviews with students from Beijing, now studying in Stockholm, to learn more about potential user’s thoughts on the possibilities and problems with the created ICT solutions. The study has a qualitative approach focusing on the research and conceptualizing stages of the process and does not claim to present any statistically defensible data. The intention of it is merely to show tendencies and raise a discussion. Keywords: Megacity, ICT, Safe food, Education, Beijing, Socioeconomic maturity level
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Zwan, F. M. van der. "Integrated solutions as a new perspective for eco efficient services : a cross industry exploration". Thesis, Cranfield University, 2003. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.274181.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Li, Zhen. "Reconfigurable computing architecture exploration using silicon photonics technology". Thesis, Ecully, Ecole centrale de Lyon, 2015. http://www.theses.fr/2015ECDL0001/document.

Texto completo
Resumen
Les progrès dans la fabrication des systèmes de calcul reconfigurables de type « Field Programmable Gate Arrays » (FPGA) s’appuient sur la technologie CMOS, ce qui engendre une consommation des puces élevée. Des nouveaux paradigmes de calcul sont désormais nécessaires pour remplacer les architectures de calcul traditionnel ayant une faible performance et une haute consommation énergétique. En particulier, optique intégré pourrait offrir des solutions intéressantes. Beaucoup de travail sont déjà adressées à l’utilisation d’interconnexion optique pour relaxer les contraintes intrinsèques d’interconnexion électronique. Dans ce contexte, nous proposons une nouvelle architecture de calcul reconfigurable optique, la « optical lookup table » (OLUT), qui est une implémentation optique de la lookup table (LUT). Elle améliore significativement la latence et la consommation énergétique par rapport aux architectures de calcul d’optique actuelles tel que RDL (« reconfigurable directed logic »), en utilisant le spectre de la lumière au travers de la technologie WDM. Nous proposons une méthodologie de conception multi-niveaux permettant l'explorer l’espace de conception et ainsi de réduire la consommation énergétique tout en garantissant une fiabilité élevée des calculs (BER~10-18). Les résultats indiquent que l’OLUT permet une consommation inférieure à 100fJ/opération logique, ce qui répondait en partie aux besoins d’un FPGA tout-optique à l’avenir
Advances in the design of high performance silicon chips for reconfigurable computing, i.e. Field Programmable Gate Arrays (FPGAs), rely on CMOS technology and are essentially limited by energy dissipation. New design paradigms are mandatory to replace traditional, slow and power consuming, electronic computing architectures. Integrated optics, in particular, could offer attractive solutions. Many related works already addressed the use of optical on-chip interconnects to help overcome the technology limitations of electrical interconnects. Integrated silicon photonics also has the potential for realizing high performance computing architectures. In this context, we present an energy-efficient on-chip reconfigurable photonic logic architecture, the so-called OLUT, which is an optical core implementation of a lookup table. It offers significant improvement in latency and power consumption with respect to optical directed logic architectures, through allowing the use of wavelength division multiplexing (WDM) for computation parallelism. We proposed a multi-level modeling approach based on the design space exploration that elucidates the optical device characteristics needed to produce a computing architecture with high computation reliability (BER~10-18) and low energy dissipation. Analytical results demonstrate the potential of the resulting OLUT implementation to reach <100 fJ/bit per logic operation, which may meet future demands for on-chip optical FPGAs
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Couillaud, Julie. "The terpene mini-path : nouvel accès aux terpènes et exploration de l'espace chimique par une cascade enzymatique originale". Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0188.

Texto completo
Resumen
À ce jour, les terpénoïdes constituent la classe de produits naturels la plus abondante et diversifiée avec plus de 80000 composés décrits et dont les propriétés structurales, biologiques (antibiotique, anticancéreux, antipaludique…) et physico-chimiques (arôme, parfum, colorant…) retiennent l’attention de la communauté scientifique. Cependant, leur accès est limité par une faible disponibilité par extraction à partir de sources naturelles ; une synthèse chimique souvent coûteuse et laborieuse; et des voies de biosynthèses longues. En combinant des approches bioinformatiques, statistiques, biochimiques et de biologie moléculaire, nous avons développé la « mini-voie des terpènes », à seulement deux étapes enzymatiques, comme alternative synthétique et biosourçable pour l’accès aux DMAPP et IPP, précurseurs universels des terpènes. Cette nouvelle voie artificielle a permis la synthèse de différents terpénoïdes naturels et également non-naturels tels que des dérivés cyclobutyliques, en l’absence d’ingénierie métabolique et enzymatique. Ainsi, la mini-voie offre un accès facilité à l’ensemble des terpénoïdes et constitue un nouvel outil biosynthétique attractif pour l’exploration de la diversité de l’espace chimique des terpènes
To date, terpenoids form the most abundant and diversified class of natural products with more than 80,000 compounds whose structural, biological (antibiotic, anticancer, antimalarial, etc.) and physicochemical (flavor, fragrance, dye, etc.) properties hold the attention of the scientific community. However, their access is limited because of the low available quantity by extraction from natural sources; an often expensive and laborious chemical synthesis; and long biosynthetic pathways. By combining bioinformatic, statistical, biochemical and molecular biology approaches, we have developed the « Terpene mini-path », with only two enzymatic steps, as a synthetic and potentially bio-sourced alternative to access DMAPP and IPP, universal precursors of terpenes. This new artificial pathway allowed the synthesis of various natural and unnatural terpenoids, such as cyclobutylic derivatives, in the absence of any metabolic and enzymatic engineering. The mini-path provides thus an easy access to all terpenoids and represents an attractive new biosynthetic tool to explore the diversity of the terpene chemical space
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Boillot, François. "Mission Perseus-Exobiologie : comportement d'acides aminés et de peptides soumis aux conditions de l'espace". Orléans, 2001. http://www.theses.fr/2001ORLE2009.

Texto completo
Resumen
Dans le cadre de la recherche des origines de la vie, la réactivité des acides aminés et de peptides a été étudiée en orbite terrestre au cours de la mission Perseus-Exobiologie. Cette expérience a exploré la théorie de l'origine extraterrestre des briques du vivant en étudiant leur comportement dans les conditions de l'espace. La mission s'est déroulée du 16 avril au 23 juillet 1999. Des échantillons de leucine (Leu), d'a-methyl leucine (MeLeu), de dicétopipérazine de leucine (DKP) et de thioéthylester de trileucine (Leu3SEt) ont été exposés à l'extérieur de la station orbitale MIR. Les composés ont été irradiés à l'état solide sous la forme de films de 0. 5 um d'épaisseur et associés à des films de matière minérale de 5um d'épaisseur (argile, poudres de basalte et de météorite d'Allende). Ils ont été choisis pour mettre en évidence une éventuelle racémisation, étudier la stabilité de la liaison peptidique et favoriser une polymérisation induite photochimiquement. Les matières minérales ont été choisies pour étudier l'influence de leur nature sur la réactivité des composés organiques associés. Des épaisseurs variables de films de poudre météoritique ont été réalisées afin de mesurer son taux de protection sur la DKP et sur Leu3SEt.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Khan, Shahid Nawaz. "Exploration par résonance magnétique de l'espace conformationnel et de la dynamique du facteur de transcription partiellement désordonné Engrailed-2". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066146/document.

Texto completo
Resumen
Les protéines intrinsèquement désordonnées (IDP), dépourvues d’une structure rigide et stable, constituent une classe de protéines diverses et fonctionnellement importantes. La résonance magnétique nucléaire (RMN) est une technique spectroscopique bien établie pour caractériser les propriétés conformationnelles et dynamiques des IDP avec une résolution atomique. L’espace conformationnel, en général large et varié, des IPD en fait une cible difficile pour la biologie structurale dont le but est de déterminer avec précision et exactitude les propriétés structurales, dynamique et physico-chimiques qui sous-tendent la fonction des macromolécules biologiques. Ce manuscrit présente une étude biophysique détaillée de la région intrinsèquement désordonnée (IDR) du facteur de transcription Engrailed-2, avant tout par RMN. Après une présentation de cette homéoprotéine, nous décrivons les protocoles d’expression et de purification de cette protéine isotopiquement marquée. Nous introduisons ensuite une nouvelle approche pour la caractérisation des mouvements pico- et nanoseconde des protéines intrinsèquement désordonnées à partir de données de relaxation des spins nucléaires enregistrées à plusieurs champs magnétiques. Les effets de relaxation paramagnétique (PRE) ont été utilisés pour identifier des interactions transitoires entre la région désordonnée et l’homéodomaine d’Engrailed-2. L’interaction d’Engrailed-2 avec l’ADN a été étudiée en détail en utilisant l’anisotropie de fluorescence sur une série de constructions de la protéine, afin de mettre en lumière le rôle de la partie désordonnée dans l’interaction avec l’ADN. Nous avons également employé la résonance paramagnétique électronique pour tenter de détecter une interaction potentielle entre le noyau hydrophobe de l’hexapeptide dans la région désordonnée et l’homéodomaine. Les couplages dipolaires résiduels (RDC) dans les paires 1H-15N, Cα-Hα et Cα-C′ ont également été mesurés sur des échantillons d’Engrailed en milieu anisotrope. Ces données seront essentielles pour reconstituer l’espace conformationnel d’Engrailed 2. L’ensemble des approches présentées a permis de constituer un socle solide de connaissances qui permettent de mieux comprendre les propriétés conformationnelles, dynamiques et fonctionnelles de l’IDR d’Engrailed-2
Intrinsically Disordered Proteins (IDPs), which lack a stable rigid structure constitute a large and functionally important class of proteins. Nuclear Magnetic Resonance (NMR) is a well-established technique to characterize the structural and dynamical features of IDPs at atomic resolution. The broad conformational space of IDPs makes them challenging targets for structural biology to define their precise structural features and motions, the physical and chemical properties that underlie their biological functions. The present thesis establishes biophysical investigation of the disordered region of the transcription factor Engrailed-2 (13.5 kDa) primarily by NMR. After describing the protocol of expression and purification of the isotopically labeled protein, we present a novel approach to characterize the pico – nano second motions in IDPs using nuclear spin relaxation data at multiple fields. Paramagnetic Relaxation Enhancements (PREs) are used to identify transient long-range interactions between the disordered region and the folded homeodomain of Engrailed-2. Binding to DNA was studied by fluorescence anisotropy and highlights the role of the disordered region in the DNA binding. We used Electron Paramagnetic Resonance (EPR) to probe the potential interaction between the hydrophobic cluster (hexapeptide) in the disordered region and the homeodomain. The one-bond 1H-15N, Cα-Hα and Cα-C′ residual dipolar couplings (RDCs) measured for Engrailed-2 provide important constraints for the refinement of the conformational space of Engrailed_2. All these approaches provide valuable insights in understanding the structural, dynamical and functional properties of this IDP
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Venturelli, Andrea. "Application de la minimisation de l'action au problème des N corps dans le plan et dans l'espace". Paris 7, 2002. http://www.theses.fr/2002PA077190.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Afonso, Amandine. "Propriétés analogiques des représentations mentales de l'espace : étude comparative auprès de personnes voyantes et non-voyantes". Paris 11, 2006. http://www.theses.fr/2006PA112326.

Texto completo
Resumen
Nous nous sommes intéressés à la "plasticité" comportementale de l'individu dès lors qu'il est privé de vision dès la naissance. Plus spécifiquement, nous avons étudié la façon dont cet individu pouvait se représenter mentalement l'espace dans lequel il évolue, et la façon dont il pouvait bénéficier des informations provenant des autres sens. Il s'agissait de comprendre si des étapes indispensables dans la construction des représentations mentales opéraient dès le plus jeune âge, et dans quelle mesure la plasticité comportementale/cérébrale pouvait pallier cette privation visuelle précoce. Trois séries d'expériences ont été proposées à des participants non-voyants de naissance, non-voyants tardifs, voyants privés de vision, et voyants gardant les yeux ouverts. La première consistait en une tâche d'exploration mentale, la seconde en une tâche de comparaison mentale des distances. Dans ces deux expériences, les participants apprenaient la configuration d'un environnement spatial par description verbale ou par exploration tactile. La dernière série d'expériences avait pour objectif d'examiner si l'immersion des individus dans l'environnement à mémoriser pouvait améliorer leurs performances. Nous avons conçu une plate-fore de Réalité Virtuelle en "audio 3D", permettant de générer un environnement spatial composé de sources sonores virtuelles dans lequel les individus avaient la possibilité de se déplacer. Les résultats suggèrent que la taille de la configuration initiale n'a pas d'effet sur le traitement des relations spatiales, même si les personnes non-voyantes précoces font plus d'erreurs d'évaluation des distances sur des configurations de petite taille
We are interested in behavioral "plasticity" of individuals who have been deprived of vision from birth. More specifically, we have studied the manner in which the individual mentally represents the space around them, and the way in which the inidividual benefits from information coming from other senses. The aim of the study consists in understanding if the essential stages for the construction of the mental representations are in operation from an early age, and up to what point behavioral/cerebral plasticity could mitigate this early visual deprivation. Three series of experiments were proposed with participants who were categorized as blind from birth, late blind, sighted and blindfolded, or sighted with eyes open. The first two experiments consisted of a task of mental exploration and of mental comparison of distances. In these two experiments, the participants learned the configuration of a small spatial environment through verbal description or tactile exploration. The third series of experiments was aimed at examining whether the immersion of the individual in the environment would improve their performance. We designed an immersive Virtual Reality system for "3D sound", which allows for the generation of a human scale environment consisting of a spatial distribution of virtual sound sources in which the individual has the capacity to move about. The results suggest that the size of the initial configuration does not have an effect on the treatment of the spatial relations, even though blind from birth participants made more erros with regards to distance evaluation with the smaller sized configuration
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Birch, Stephen John. "An exploration with proposed solutions of the problems and issues in conducting clinical research in acupuncture". Thesis, University of Exeter, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.284782.

Texto completo
Resumen
Many controlled clinical trials of acupuncture have been conducted since the mid 1970s, however, there is almost universal agreement that the quality of these trials has been poor. Previous reviews have exposed many problems in the quality of the clinical trials. While some recent trials have addressed these concerns, these improved methodologies have still not addressed other key problems. This study systematically exposes other problems in published clinical trials of acupuncture, proposes solutions to those problems, and then tests the solutions in a controlled clinical trial of acupuncture for neck pain. Key among the new problems that are exposed are problems with adequacy of knowledge about the nature and practice of acupuncture, consequent problems with the adequacy of the tested acupuncture treatments, problems with the appropriateness of the control needling procedures when so-called "sham" acupuncture is used, and problems with the generalizability of results from these studies. Proposals for improving the ability to control for the non-specific effects of treatment are also developed. Chapters one through three document the nature of the field and problems in common representations about the field, discussing previous studies and their reviews, developing new criteria for conducting clinical trials of acupuncture by documenting problems not systematically described before. Chapter four discusses the importance of assessing the reliability of diagnosis, and presents the design and results of preliminary studies investigating this. Chapter five presents strategies for addressing each methodological criteria developed in Chapters two and three. Chapter six presents the design of a controlled trial of acupuncture for neck pain. Chapter seven presents analysis and results of that trial. Chapter eight discusses those results in light of the goals of the overall study and details plans for improving the methodology for future trials. The trial found results suggesting a treatment effect that appears not to be attributable to non-specific effects alone, and succesfully piloted the methodology developed for clinical trials of acupuncture. This methodology with modifications could be useful for future trials. This study was funded by an intramural grant from the Research Committee of the Department of Anesthesia, Brigham and Women's Hospital, Harvard Medical School, Boston, Massachusetts. Supplies for the study were donated by the Seirin Needle Company, Tokyo, Japan.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Blais, Hélène. "Les voyages français dans le Pacifique : pratique de l'espace, savoirs géographiques et expansion coloniale : (1815-1845)". Paris, EHESS, 2000. http://www.theses.fr/2000EHES0049.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Queenan, Kimberly M. "A New Hampshire Workforce Study| Exploration of the Existence of Brain Drain Phenomenon, Reasons it Exists and Proposed Solutions". Thesis, Franklin Pierce University, 2016. http://pqdtopen.proquest.com/#viewpdf?dispub=10076131.

Texto completo
Resumen

The objective of this study was to explore if New Hampshire is experiencing ‘Brain Drain’ phenomenon. For this study, Brain Drain is defined as a metaphor denoting “difficulty finding skilled and talented workers to work in New Hampshire”. This study explored the lived experiences and perceptions of two groups over many years, including the recent downturn in the economy and through its ongoing recovery.

Group 1 were participants from New Hampshire State Level Offices and State Organizations whose purpose is to assist New Hampshire businesses and their workforces. They were asked if they believed New Hampshire was experiencing brain drain phenomenon, and if so how were the New Hampshire State Offices and State Organizations trying to solve it. Group 2 were participants from New Hampshire Businesses, residing in all 10 New Hampshire counties, as well as across different Industry Sectors. They were asked if they believed if their New Hampshire Businesses were experiencing brain drain phenomenon, and if so how were their New Hampshire Businesses trying to solve it. The researcher compared the results of Group 1 and Group 2, to see if they believed New Hampshire and the New Hampshire Businesses were experiencing brain drain phenomenon, and if so were both groups working together to help solve it?

The study revealed three major findings. First, both Groups believed New Hampshire was experiencing brain drain phenomenon, however there was a disconnect on how they were both trying to solve it. Second, the results demonstrated that the New Hampshire Businesses were experiencing two types of brain drain phenomenon. They were finding difficulty filling Knowledge and Information Age jobs—mainly in the STEM (Science, Technology, Engineering and Mathematic) fields. However, even more evident, they were finding much more difficulty filling Industrial Age jobs, mainly in the Manufacturing industry sector. Third, the two types of brain drain phenomenon were being compounded with a decline in New Hampshire workforce population, as demographics show the state’s population is aging.

Leadership examples from both groups were cited. Future leadership opportunities were presented. Conclusion: Strive to match business opportunities, with the right skills, and available population.

Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Vandelle, Erika. "Exploration de solutions antennaires et de formation passive de faisceaux pour la récupération et le transfert d’énergie sans fil". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT060.

Texto completo
Resumen
La récupération d’énergie électromagnétique provenant de sources ambiantes ou intentionnelles, de fréquences allant de 100 MHz à 10 GHz, est apparue ces dernières années comme une solution prometteuse pour développer l’électronique autoalimentée. Cependant, les faibles densités de puissance, généralement plus faibles que 1 μW.cm-2, engendrent de faibles efficacités de redressement et de faibles sensibilités, et la diversité des signaux ambients (direction d’arrivée et polarisation inconnues et variant dans le temps) ne permet pas d’utiliser des antennes directives.Dans cette thèse, les techniques de combinaison de la puissance RF ou DC dans des systèmes de récupération d’énergie à multiples antennes, associées à des structures originales, sont étudiées pour faire face aux différents verrous technologiques. De plus, une nouvelle Figure-de-Mérite, décrivant la capacité d’un système à récupérer de l’énergie ambiante, est développée avec des termes de probabilités représentant la diversité fréquentielle, spatiale et de polarisation des signaux ambiants.La première partie de cette thèse se consacre à la conception d’antennes et de rectennas individuelles efficaces. Des prototypes peu chers et recyclables sont proposés sur un substrat papier grâce à une technique originale de réduction des pertes.Dans la deuxième partie de cette thèse, l’efficacité de conversion RF-DC est améliorée à travers la combinaison de la puissance RF avant le processus de redressement, sans pour autant réduire la couverture spatiale du système. Pour cela, une structure 3D multidirectionnelle de réseaux d’antennes associés à des réseaux interférométriques passifs, pour la formation de faisceaux, est conçue, afin d’obtenir un diagramme de rayonnement multidirectionnel à fort gain. Cette solution inspirée des systèmes de radar et impliquant des matrices de Butler, aboutit à une haute efficacité de conversion RF-DC ainsi qu’à une couverture spatiale optimale. Ainsi, une capacité à récupérer de l’énergie plus grande que celles de l’état-de-l’art est obtenue.La dernière partie de cette thèse propose de remédier à la limite en sensibilité de la combinaison de puissance RF, plus faible qu’avec une combinaison DC en série de la puissance, grâce à un système reconfigurable. Pour cela, des cellules unitaires de rectennas sont conçues afin de former un réseau interférométrique adaptable et extensible, qui offre la possibilité d’obtenir un système hautement efficace et sensible à la fois. Cette solution peut servir à la récupération d’énergie, à la localisation passive et autonome ou à des applications RFID
Wireless energy harvesting (WEH) of ambient or intentional electromagnetic power sources of frequency ranging from 100 MHz to 10 GHz, has appeared as a promising solution to develop self-powered electronics in the past decades. However, the low power densities available, usually lower than 1 uW.cm-2, result in a limited RF-to-DC conversion efficiency and sensitivity of the energy harvesting system (rectenna) and the ambient signal diversities (unknown and time-varying direction of arrival, polarization) prohibit the use of directive antennas.In this thesis, the power combination techniques of Radio Frequency (RF) or Direct Current (DC) power in multi-antenna WEH systems, together with original structures, are investigated to address those challenges. Besides, a new Figure-of-Merit (harvesting capability) for rectennas operating in ambient scenarios is derived with probabilistic terms representing the frequency, polarization and spatial diversities of ambient signals.The first part of this thesis focuses on the design of efficient antenna and rectenna elements. Eco-responsible and low-cost prototypes are proposed by using a paper substrate along with an original strategy for the reduction of the losses.In the second part of this work, the rectification efficiency of a WEH system is enhanced through the combination of the RF power prior to the rectification process, without reduction of the spatial coverage. For this, a 3D multidirectional structure of scanning antenna arrays using passive beam-forming networks is designed to obtain a multidirectional high gain aggregate pattern. This radar-inspired solution involving Butler matrices results in a highly efficient RF-to-DC power conversion along with an optimal angular coverage, which leads to a harvesting capability higher than the state-of-the-art.The last part of this work addresses the limited sensitivity of the RF combination technique compared to that obtained with the series DC combination technique thanks to a reconfigurable system. To this end, modular rectenna unit cells are designed to form a scalable and adaptative interferometric beam-forming network, which offers the possibility to achieve a highly efficient and sensitive WEH system. This solution is suitable for low-power energy harvesting, autonomous passive tracking or RFID applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Afonso, Jaco Amandine. "Propriétés analogiques des représentations mentales de l'espace : Etude comparative auprès de personnes voyantes et non-voyantes". Phd thesis, Université Paris Sud - Paris XI, 2006. http://tel.archives-ouvertes.fr/tel-00874760.

Texto completo
Resumen
Nous nous sommes intéressés à la "plasticité" comportementale de l'individu dès lors qu'il est privé de vision dès la naissance. Plus spécifiquement, nous avons étudié la façon dont cet individu pouvait se représenter mentalement l'espace dans lequel il évolue, et la façon dont il pouvait bénéficier des informations provenant des autres sens. Il s'agissait de comprendre si des étapes indispensables dans la construction des représentations mentales opéraient dès le plus jeune âge, et dans quelle mesure la plasticité comportementale/cérébrale pouvait pallier cette privation visuelle précoce. Trois séries d'expériences ont été proposées à des participants non-voyants de naissance, non-voyants tardifs, voyants privés de vision, et voyants gardant les yeux ouverts. La première consistait en une tâche d'exploration mentale, la seconde en une tâche de comparaison mentale des distances. Dans ces deux expériences, les participants apprenaient la configuration d'un environnement spatial par description verbale ou par exploration tactile. La dernière série d'expériences avait pour objectif d'examiner si l'immersion des individus dans l'environnement à mémoriser pouvait améliorer leurs performances. Nous avons conçu une plate-fore de Réalité Virtuelle en "audio 3D", permettant de générer un environnement spatial composé de sources sonores virtuelles dans lequel les individus avaient la possibilité de se déplacer. Les résultats suggèrent que la taille de la configuration initiale n'a pas d'effet sur le traitement des relations spatiales, même si les personnes non-voyantes précoces font plus d'erreurs d'évaluation des distances sur des configurations de petite taille.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

MILIA, GABRIELE. "Cloud-based solutions supporting data and knowledge integration in bioinformatics". Doctoral thesis, Università degli Studi di Cagliari, 2015. http://hdl.handle.net/11584/266783.

Texto completo
Resumen
In recent years, computer advances have changed the way the science progresses and have boosted studies in silico; as a result, the concept of “scientific research” in bioinformatics has quickly changed shifting from the idea of a local laboratory activity towards Web applications and databases provided over the network as services. Thus, biologists have become among the largest beneficiaries of the information technologies, reaching and surpassing the traditional ICT users who operate in the field of so-called "hard science" (i.e., physics, chemistry, and mathematics). Nevertheless, this evolution has to deal with several aspects (including data deluge, data integration, and scientific collaboration, just to cite a few) and presents new challenges related to the proposal of innovative approaches in the wide scenario of emergent ICT solutions. This thesis aims at facing these challenges in the context of three case studies, being each case study devoted to cope with a specific open issue by proposing proper solutions in line with recent advances in computer science. The first case study focuses on the task of unearthing and integrating information from different web resources, each having its own organization, terminology and data formats in order to provide users with flexible environment for accessing the above resources and smartly exploring their content. The study explores the potential of cloud paradigm as an enabling technology to severely curtail issues associated with scalability and performance of applications devoted to support the above task. Specifically, it presents Biocloud Search EnGene (BSE), a cloud-based application which allows for searching and integrating biological information made available by public large-scale genomic repositories. BSE is publicly available at: http://biocloud-unica.appspot.com/. The second case study addresses scientific collaboration on the Web with special focus on building a semantic network, where team members, adequately supported by easy access to biomedical ontologies, define and enrich network nodes with annotations derived from available ontologies. The study presents a cloud-based application called Collaborative Workspaces in Biomedicine (COWB) which deals with supporting users in the construction of the semantic network by organizing, retrieving and creating connections between contents of different types. Public and private workspaces provide an accessible representation of the collective knowledge that is incrementally expanded. COWB is publicly available at: http://cowb-unica.appspot.com/. Finally, the third case study concerns the knowledge extraction from very large datasets. The study investigates the performance of random forests in classifying microarray data. In particular, the study faces the problem of reducing the contribution of trees whose nodes are populated by non-informative features. Experiments are presented and results are then analyzed in order to draw guidelines about how reducing the above contribution. With respect to the previously mentioned challenges, this thesis sets out to give two contributions summarized as follows. First, the potential of cloud technologies has been evaluated for developing applications that support the access to bioinformatics resources and the collaboration by improving awareness of user's contributions and fostering users interaction. Second, the positive impact of the decision support offered by random forests has been demonstrated in order to tackle effectively the curse of dimensionality.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Reiche-De, Vigan Stéphanie. "Le droit et l'espace souterrain. Enjeux de propriété et de souveraineté en droit international et comparé". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE3044.

Texto completo
Resumen
L’espace souterrain, qui s’étend depuis la surface des terres émergées et des fonds marins jusqu’au centre de la Terre, est délaissé par le droit international. Aucune règle de droit international positif ne vient réglementer l’utilisation que les Etats font de leur espace souterrain territorial, cette utilisation et le régime de la propriété souterraine faisant partie de leur domaine réservé. Si les normes internationales régissent l’utilisation de l’espace souterrain extra-territorial, celui des grands fonds marins et celui de l’Antarctique, elles n’appréhendent l’espace souterrain qu’en termes d’utilisation et de mise en valeur des ressources minérales. De ce régime juridique d’exploration et d’exploitation des ressources minérales dépend d’ailleurs le statut juridique de l’espace souterrain qui va de la pleine souveraineté de l’Etat côtier à l’exclusion de toute appropriation nationale ou individuelle. Devant la multiplication des utilisations souterraines et face aux dommages environnementaux et aux violations des droits de l’homme liés à certaines de ces utilisations, le droit international doit réinvestir l’espace souterrain et notamment le contenu et l’étendue des droits qui le concernent tant dans l’ordre interne qu’international afin d’en réglementer la mise en valeur et d’en assurer la protection
Until today, there has been little interest of international Law concerning the earth’s subsurface, as the space that extends from the surface of the soil or of the seabed to the center of the earth. On the one hand, there is no rule of international law that regulates the use Sovereign States have of their territorial subsurface. It is currently understood that subsburface activities and property law that regulates them, are within domestic jurisdiction only and do not come under international law scrutinity as they waive the exercice of an absolute independance of States. On the other hand, the existing rules of international law that regulates extraterritorial subsurface, notably the seabed and ocean floor and subsoil thereof beyond national jurisdiction and the Antarctic, consider the earth’s subsurface mostly in terms of use and exploitation of mineral resources. Faced with the evergrowing uses of the subsurface that are solely used for extraction or for injection and storing, and regarding the impacts of some underground activities on the environment and on human rights, International Law must play a role by regulating the content and extent of rights that are exercised over the earth’s subsurface inside and outside territorial jurisdiction for development and protection purposes
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Pham, Van Dung. "Architectural exploration of network Interface for energy efficient 3D optical network-on-chip". Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S076/document.

Texto completo
Resumen
Depuis quelques années, les réseaux optiques sur puce (ONoC) sont devenus une solution intéressante pour surpasser les limitations des interconnexions électriques, compte tenu de leurs caractéristiques attractives concernant la consommation d’énergie, le délai de transfert et la bande passante. Cependant, les éléments optiques nécessaires pour définir un tel réseau souffrent d’imperfections qui introduisent des pertes durant les communications. De plus, l'utilisation de la technique de multiplexage en longueurs d'ondes (WDM) permet d'augmenter les performances, mais introduit de nouvelles pertes et de la diaphonie entre les longueurs d'ondes, ce qui a pour effet de réduire le rapport signal sur bruit et donc la qualité de la communication. Les contributions présentées dans ce manuscrit adressent cette problématique d’amélioration de performance des liens optiques dans un ONoC. Pour cela, nous proposons tout d’abord un modèle analytique des pertes et de la diaphonie dans un réseau optique sur puce WDM. Nous proposons ensuite une méthodologie pour améliorer les performances globales du système s'appuyant sur l'utilisation de codes correcteurs d'erreurs. Nous présentons deux types de codes, le premier(Hamming) est d'une complexité d'implémentation faible alors que le second(Reed-Solomon) est plus complexe, mais offre un meilleur taux de correction. Nous avons implémenté des blocs matériels supportant ces corrections d'erreurs avec une technologie 28nm FDSOI. Finalement, nous proposons la définition d'une interface complète entre le domaine électrique et le domaine optique permettant d'allouer les longueurs d'ondes, de coder l'information, de sérialiser le flux de données et de contrôler le driver du laser pour obtenir la modulation à la puissance optique souhaitée
Electrical Network-on-Chip (ENoC) has long been considered as the de facto technology for interconnects in multiprocessor systems-on-chip (MPSoCs). However, with the increase of the number of cores integrated on a single chip, ENoCs are less and less suitable to adapt the bandwidth and latency requirements of nowadays complex and highly-parallel applications. In recent years, due to power consumption constraint, low latency, and high data bandwidth requirements, optical interconnects became an interesting solution to overcome these limitations. Indeed, Optical Networks on Chip (ONoC) are based on waveguides which drive optical signals from source to destination with very low latency. Unfortunately, the optical devices used to built ONoCs suffer from some imperfections which introduce losses during communications. These losses (crosstalk noises and optical losses) are very important factors which impact the energy efficiency and the performance of the system. Furthermore, Wavelength Division Multiplexing (WDM) technology can help the designer to improve ONoC performance, especially the bandwidth and the latency. However, using the WDM technology leads to introduce new losses and crosstalk noises which negatively impact the Signal to Noise Ratio (SNR) and Bit Error Rate (BER). In detail, this results in higher BER and increases power consumption, which therefore reduces the energy efficiency of the optical interconnects. The contributions presented in this manuscript address these issues. For that, we first model and analyze the optical losses and crosstalk in WDM based ONoC. The model can provide an analytical evaluation of the worst case of loss and crosstalk with different parameters for optical ring network-on-chip. Based on this model, we propose a methodology to improve the performance and then to reduce the power consumption of optical interconnects relying on the use of forward error correction (FEC). We present two case studies of lightweight FEC with low implementation complexity and high error-correction performance under 28nm Fully-Depleted Silicon-On-Insulator (FDSOI) technology. The results demonstrate the advantages of using FEC on the optical interconnect in the context of the CHAMELEON ONoC. Secondly, we propose a complete design of Optical Network Interface (ONI) which is composed of data flow allocation, integrated FECs, data serialization/deserialization, and control of the laser driver. The details of these different elements are presented in this manuscript. Relying on this network interface, an allocation management to improve energy efficiency can be supported at runtime depending on the application demands. This runtime management of energy vs. performance can be integrated into the ONI manager through configuration manager located in each ONI. Finally, the design of an ONoC configuration sequencer (OCS), located at the center of the optical layer, is presented. By using the ONI manager, the OCS can configure ONoC at runtime according to the application performance and energy requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Wu, Xiaojun. "Challenges of accommodating non-native English-speaking instructors' teaching and native English-speaking students' learning in college, and the exploration of potential solutions". Online version, 2003. http://www.uwstout.edu/lib/thesis/2003/2003wux.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Corvino, Rosilde. "Exploration de l'espace des architectures mémoire pour des systèmes de traitement d'image avec références non affines aux données : application à des blocs fondamentaux d'un modèle de rétine numérique". Grenoble 1, 2009. http://www.theses.fr/2009GRE10167.

Texto completo
Resumen
Dans le cadre de la synthèse de haut niveau (SHN), qui permet d’extraire un modèle structural à partir d’un modèle algorithmique, nous proposons des solutions pour optimiser l’accès et le transfert de données du matériel cible. Une méthodologie d’exploration de l’espace des architectures mémoire possibles a été mise au point. Cette méthodologie trouve un compromis entre la quantité de mémoire interne utilisée et les performances temporelles du matériel généré. Deux niveau d’optimisation existe : 1)Une optimisation architecturale, qui consiste à créer une hiérarchie mémoire, 2)Une optimisation algorithmique, qui consiste à partitionner la totalité des données manipulées pour stocker en interne seulement celles qui sont utiles dans l’immédiat. Pour chaque répartition possible, nous résolvonsle problème de l’ordonnancement des calculs et de mapping des données. À la fin, nous choisissons la ou les solutions pareto. Nous proposons un outil, front-end de la SHN, qui est capable d’appliquer l’optimisation algorithmique du point 2) à un algorithme de traitement d’image spécifié par l’utilisateur. L’outil produit en sortie un modèle algorithmique optimisé pour la SHN, en customisant une architecture générique
The aim of this Phd is to propose a methodology that improves the data transfer and management for applications having non-affine arra references. The target applications are iterative image processing algorithms which are non-recursive and have static dependences. These applications are weil described by a Joop based C-code and they can undergo a High Level Synthesis which in fer a RTL model from an input C-code. The input code of the HLS can be optimized, by the loop transformations, with respect to its data storage and management. Ln fact, in the trame of polyhedral model, the loop transformations enhance data locality and allow the computation parallelism and the data prefetchin. These transformations require that the array references are affine. Ln our model we proposes a method to apply data and operations partitionning for applications with non-affine array references. An exploration is run with different tiling of input and output data spaces. The output tiling is than projected onto the input tiling. The outpu tiles calculations are re-schedulied in order to minimize the internai memory or optimize the temporal performance of the produced system. A mapping between the input tiles and the internai buffers is computed and, at the end, the best solutions in the analyzed set are chosen
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Ndiaye, Idrissa. "La politique fiscale des sociétés dans les états membres de l'espace OHADA (Organisation pour l’harmonisation en Afrique du droit des affaires) : la problématique de l’assiette fiscale et solutions pour le développement". Paris 13, 2008. http://scbd-sto.univ-paris13.fr/secure/ederasme_th_2008_ndiaye.pdf.

Texto completo
Resumen
La politique fiscale porte sur la répartition des recettes publiques entre les différents impôts, ainsi que sur l’assiette et le taux de ces derniers. Dans les Etats membres de l’espace OHADA, la politique fiscale des sociétés doit permettre une mobilisation substantielle des recettes fiscales pour assurer le financement du développement. Une politique des règles d’assiettes fiscales étroite n’est pas de nature à mobiliser des recettes conséquentes. Une administration fiscale qui ne dispose pas de moyens matériels et humains suffisants ne contribue pas également à lutter efficacement contre la fraude et l’évasion fiscale en vue d’accroître les recettes nécessaires. Face à la mondialisation et des politiques d’intégration, les individualités étatiques ne permettent pas également d’asseoir une véritable politique fiscale de développement en Afrique. Une nouvelle stratégie de politique fiscale pour le développement dans les Etats Membres de l’espace OHADA est nécessaire. Elle passe par une politique d’élargissement des règles d’assiettes fiscales. Une redéfinition de la politique des exonérations fiscales des codes d’investissements. Il faut donner à l’administration fiscale des moyens matériels et humains suffisants pour jouer son véritable rôle. En fin développer la coopération entre administrations fiscales des Etats membres pour tenir compte de l’évolution de la politique fiscale. L’harmonisation fiscale est devenue une véritable stratégie de développement en Afrique
The fiscal policy deals with the sharing out of the public recipe between the different taxes, on the base and the rate of the latter. In the states which are members of the OHCLA space, the tax policy of the societies must permit a substantial mobilization of fiscal bases in order to reassure the financial means of the the development policy of narrow tax base duties is by no means a strategy to mobilise consequent recipe. A fiscal administration which does not possess material human and satisfactory means does not contribute in fighting efficiently fraud and tax evasion in order to increase necessary fiscal recipes. Facing the globalization and the policies of integration, the state individualities do not also allow to sustain a genuine development tax policy in Africa. A new strategy of fiscal policy for the development of members states within the OHCLA is necessary. IT passes through a large policy of the norms of the recipes. A redefinition of the fiscal exoneration policy of the investment codes. One must give material, human and satisfactory means to the tax administration to play a genuin part (role). To put it in a nutshell, we have to develop the cooperation between tax administratin of the members states in order to take into account of the consideration of the tax policy. The fiscal harmonization has become a genuine strategy for the development of Africa
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Sidorenko, Anna. "Les sites technologiques liés à l'exploration spatiale : les enjeux de leur patrimonialisation". Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1232.

Texto completo
Resumen
La spécificité de cette recherche réside dans sa réalisation par la validation des acquis de l'expérience professionnelle (VAE), en simultanée avec le développement des approches en vue de la patrimonialisation des sites technologiques liés à l'exploration spatiale, conduits par l’auteure au titre de ses fonctions à l'UNESCO, en tant que le responsable de l'Initiative thématique « Astronomie et patrimoine mondial». Cette recherche retrace et analyse les enjeux de la patrimonialisation des sites liés à l'exploration spatiale sous un prisme d'une obligatoire corrélation entre le patrimoine terrestre de l'Espace et le patrimoine extra-atmosphérique.La patrimonialisation des sites technologiques liés à l'exploration spatiale est une étape charnière d'un processus de reconnaissance du patrimoine de l'Espace. Cette recherche positionne deux contextes. L'un est lié à la mise en place d'un instrument normatif international qui délimite le périmètre du patrimoine mondial appartenant à l'Humanité tout entière. L'autre est celui lié au commencement de l'Ère Spatiale et à l'exploration de l'Espace. Ce dernier donne naissance à des sites qu'illustrent une exceptionnelle prouesse technologique et le génie créateur humain. La patrimonialisation de ces sites est étudiée dans une approche de création de passerelles entre les deux contextes susmentionnés qui se sont développés parallèlement, sans jamais se croiser. Ce travail de restitution contextuelle s’appuie sur les témoignages des personnes clefs qui ont contribués à la mise en oeuvre de la Convention du patrimoine mondial, et notamment à l'avancement de la reconnaissance des valeurs associées à la science. La problématique de cette recherche s'inscrit dans le cadre des études interdisciplinaires dans le domaine de science, technologie, patrimoine et logiques de participation. Ce projet constitue un apport aux axes de recherches du Laboratoire HT2S Histoire des Technosciences en Société du Conservatoire National des Arts et Métiers (CNAM)
The specificity of this research resides in its realisation by the validation of the acquired professional experience (VAE), simultaneously with the development of the approaches for the patrimonialisation of the technological sites related to space exploration, led by the author in her role at UNESCO as responsible for the Thematic Initiative "Astronomy and World Heritage". This research retraces and analyses the implementation of the issues of patrimonialisation of heritage-related sites linked to space exploration under the prism of an obligatory correlation between space heritage on Earth and outer-space heritage.The patrimonialisation of technological sites related to space exploration is a milestone in the process of recognition of space heritage. This research positions two contexts. One is linked to the establishment of an international normative instrument that delimits the World Heritage perimeter belonging to the whole of Humanity. The other is the one related to the beginning of the Space Age and space exploration. The latter gives rise to sites that illustrate an exceptional technological feat and human creative genius. The patrimonialisation of these sites is studied with an approach to create bridges between the two aforementioned contexts that have developed in parallel, without ever crossing. This work of contextual restitution is based on the testimony of key persons who contributed to the implementation of the World Heritage Convention, and in particular to the advancement of the recognition of the values associated with science. The research problem is part of the interdisciplinary studies in the field of science, technology, heritage and logics of participation. This project is a contribution to the research themes of the HT2S Laboratory on History of Technosciences in Society of the National Conservatory of Arts and Crafts (CNAM)
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Prost-Boucle, Adrien. "Génération rapide d'accélerateurs matériels par synthèse d'architecture sous contraintes de ressources". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT039/document.

Texto completo
Resumen
Dans le domaine du calcul générique, les circuits FPGA sont très attrayants pour leur performance et leur faible consommation. Cependant, leur présence reste marginale, notamment à cause des limitations des logiciels de développement actuels. En effet, ces limitations obligent les utilisateurs à bien maîtriser de nombreux concepts techniques. Ils obligent à diriger manuellement les processus de synthèse, de façon à obtenir une solution à la fois rapide et conforme aux contraintes des cibles matérielles visées.Une nouvelle méthodologie de génération basée sur la synthèse d'architecture est proposée afin de repousser ces limites. L'exploration des solutions consiste en l'application de transformations itératives à un circuit initial, ce qui accroît progressivement sa rapidité et sa consommation en ressources. La rapidité de ce processus, ainsi que sa convergence sous contraintes de ressources, sont ainsi garanties. L'exploration est également guidée vers les solutions les plus pertinentes grâce à la détection, dans les applications à synthétiser, des sections les plus critiques pour le contexte d'utilisation réel. Cette information peut être affinée à travers un scénario d'exécution transmis par l'utilisateur.Un logiciel démonstrateur pour cette méthodologie, AUGH, est construit. Des expérimentations sont menées sur plusieurs applications reconnues dans le domaine de la synthèse d'architecture. De tailles très différentes, ces applications confirment la pertinence de la méthodologie proposée pour la génération rapide et autonome d'accélérateurs matériels complexes, sous des contraintes de ressources strictes. La méthodologie proposée est très proche du processus de compilation pour les microprocesseurs, ce qui permet son utilisation même par des utilisateurs non spécialistes de la conception de circuits numériques. Ces travaux constituent donc une avancée significative pour une plus large adoption des FPGA comme accélérateurs matériels génériques, afin de rendre les machines de calcul simultanément plus rapides et plus économes en énergie
In the field of high-performance computing, FPGA circuits are very attractive for their performance and low consumption. However, their presence is still marginal, mainly because of the limitations of current development tools. These limitations force the user to have expert knowledge about numerous technical concepts. They also have to manually control the synthesis processes in order to obtain solutions both fast and that fulfill the hardware constraints of the targeted platforms.A novel generation methodology based on high-level synthesis is proposed in order to push these limits back. The design space exploration consists in the iterative application of transformations to an initial circuit, which progressively increases its rapidity and its resource consumption. The rapidity of this process, along with its convergence under resource constraints, are thus guaranteed. The exploration is also guided towards the most pertinent solutions thanks to the detection of the most critical sections of the applications to synthesize, for the targeted execution context. This information can be refined with an execution scenarion specified by the user.A demonstration tool for this methodology, AUGH, has been built. Experiments have been conducted with several applications known in the field of high-level synthesis. Of very differen sizes, these applications confirm the pertinence of the proposed methodology for fast and automatic generation of complex hardware accelerators, under strict resource constraints. The proposed methodology is very close to the compilation process for microprocessors, which enable it to be used even by users non experts about digital circuit design. These works constitute a significant progress for a broader adoption of FPGA as general-purpose hardware accelerators, in order to make computing machines both faster and more energy-saving
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Beaudoin, Judith Marie. "Exploration d’une méthodologie intégrant un système de positionnement intérieur par radiofréquence dans le cadre d’une évaluation muséale portant sur l’adéquation de parcours d'exposition". Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26215.

Texto completo
Resumen
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2015-2016
L’évaluation muséale est un champ principalement actif dans le milieu universitaire et dans les grandes institutions muséales. Les ressources humaines et financières restreintes sont souvent des freins pour les petits et moyens musées à procéder à des démarches d’évaluation autre que le taux de fréquentation. Pourtant, ces études seraient aussi bénéfiques pour eux qu’elles peuvent l’être pour les grandes institutions. Les systèmes de positionnement intérieur semblent une voie intéressante pour permettre aux petits et moyens musées de réaliser des évaluations plus facilement, rapidement et avec un minimum de ressources spécialisées. Malgré un intérêt du milieu muséal et académique pour ces nouvelles technologies, peu de solutions ont été explorées et de méthodes développées dans l’optique d’en faire un outil adapté aux réalités des petits et moyens musées. Ce projet de recherche a pour objectif le développement d’une méthodologie qui intègre un système de positionnement au sein d’une démarche d’évaluation portant sur les parcours muséographiques en contexte de moyen musée. La méthodologie proposée est testée par la réalisation d’une évaluation muséale in situ.
The field of museum evaluation is mostly active in academia and bigger museums. Limited human and financial resources are often impediments for small and medium-size museums to conduct evaluation approaches other than attendance census. However, evaluation studies would be as beneficial for them as they are for large institutions. Indoor positioning systems seem like an attractive approach to enable small and medium-size museums to conduct evaluations more quickly, more easily and in a manner that requires less specialized resources. Although museum professionals and academics have shown interest for these new technologies, few solutions have been explored and methods developed in order to create a tool adapted to the realities of small and medium-sized museums. This research project aims to develop a methodology that integrates a positioning system in the evaluation process of the adequacy between the conceptual and visitor paths in the context of a medium sized museum. The proposed methodology has been tested by applying it to an on-site evaluation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Grevsmühl, Sebastian Vincent. "A la recherche de l'environnement global : de l'Antarctique à l'Espace et retour : instrumentations, images, discours et métaphores". Paris, EHESS, 2012. http://www.theses.fr/2012EHES0030.

Texto completo
Resumen
Notre thèse porte sur l’histoire de l’environnement global. A l’heure du changement climatique actuel, nul ne doute la nature globale des questions environnementales. Depuis les années 1970, la notion d’« environnement global » est devenue monnaie courante dans le vocabulaire des experts et des scientifiques et elle est reprise de manière récurrente par les organismes internationaux. Le terme exprime surtout un nouvel état d’esprit qui se traduit par la célèbre formule « penser globalement, agir localement ». Or, ce glissement sémantique de l’environnement au globe était en germe depuis longtemps. Nous avons intitulé notre thèse « A la recherche de l’environnement global » précisément pour attirer l’attention sur le fait que la naissance du mouvement écologiste et l’appel des scientifiques pour une étude plus systématique de l’« environnement global », ne viennent pas d’un vide culturel, politique ou social. Ils participent d’un mouvement de globalisation, qui s’affirme dès le xixème siècle et atteint un premier apogée au début des années 1970. La « conquête » de l’Antarctique puis celle de l’Espace, y jouent les premiers rôles. En mettant l’accent sur le pouvoir des images pour créer des imaginaires globaux et de nouvelles sensibilités, sur le potentiel qu’ont les métaphores pour véhiculer d’un contexte à l’autre des idéologies et des convictions politiques, ainsi que sur le rôle de l’instrumentation dans l’élaboration de nos savoirs, notre thèse raconte dans toute son épaisseur historique et culturelle l’émergence d’une sensibilité nouvelle pour « l’environnement global » et pour la Terre entière comme objet scientifique, du xixème siècle jusqu’à aujourd’hui
Our work proposes a history of the global environment. Nowadays, in times of climate change, no one doubts the global nature of environmental questions. Since the 1970s, the notion of “global environment” moved to the forefront of scientific and political discourse and it is frequently adopted by international organisations. It expresses a new type of thinking, captured most adequately by the famous slogan “think globally, act locally. ” However, the semantic shift from the environment to the globe was prepared long beforehand. We entitled our work “In search of the global environment” precisely to attract the attention to the fact that the birth of the environmental movement, and the call from scientists for synoptic and systematic investigations of the “global environment,” did not emerge within a cultural, political and social vacuum. They were born out of a movement of “globalisation” which took its shape during the 19th century and reached an important peak during the 1970s. In particular, we argue that the “conquests” of Antarctica and of Outer Space played a leading role. Three methodological approaches guide our investigation. We stress the power of visualisations in the creation of global imaginaries and new sensibilities, the ability of metaphors in transposing ideologies and political convictions from one context to another, and finally the critical role of instrumentation in the mediation of global scientific knowledge. Our work proposes thereby to retrace – in all its cultural and historical depth – the history of the emergence of a new sensibility for the “global environment” and the “whole earth” as a scientific object from the 19th century until today
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Prost-Boucle, A. "Génération rapide d'accélérateurs matériels par synthèse d'architecture sous contraintes de ressources". Phd thesis, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-01071661.

Texto completo
Resumen
Bien que les FPGA soient très attrayants pour leur performance et leur faible consommation, leur emploi en tant qu'accélérateurs matériels reste marginal. Les logiciels de développement existants ne sont en effet accessibles qu'à un public expert en conception de circuits. Afin de repousser leurs limites, une nouvelle méthodologie de génération basée sur la synthèse d'architecture est proposée. En appliquant des transformations successives à une solution initiale, le processus converge rapidement et permet de respecter strictement des contraintes matérielles, notamment en ressources. Un logiciel démonstrateur, AUGH, a été construit, et des expérimentations ont été menées sur plusieurs applications reconnues. La méthodologie proposée est très proche du processus de compilation pour les microprocesseurs, ce qui permet son utilisation même par des utilisateurs non spécialistes de la conception de circuits numériques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Le, Moullec Yannick. "Aide à la conception de systèmes sur puce hétérogènes par l'exploration paramétrable des solutions au niveau système". Habilitation à diriger des recherches, Université de Bretagne Sud, 2003. http://tel.archives-ouvertes.fr/tel-00106297.

Texto completo
Resumen
Les travaux présentés dans ce document concernent la conception conjointe matériel/logiciel (Hardware/Software Co-design) d'applications orientées multimédia (essentiellement de type "enfouies" ou embedded) à un niveau d'abstraction dit système. Ces travaux sont menés au sein du L.E.S.T.E.R dans le groupe de recherche Adéquation Architecture Systèmes (AAS).
Les systèmes enfouis sont de plus en plus présents dans la vie quotidienne, que ce soit pour un usage professionnel ou personnel. On peut citer par exemple les téléphones mobiles, les assistants personnels (PDA), les consoles de jeux vidéos portables, les lecteurs multimédias portables (MP3 et consorts). On trouve aussi de plus en plus de systèmes enfouis dans les automobiles, les appareils domestiques "intelligents" etc. Les fonctions qui peuvent être intégrées dans ce type de système peuvent être, par exemple, de type traitement de signal numérique (filtrage, compression/décompression audio-vidéo,...), de type télécommunication (protocole réseau,...) ou bien encore contrôle/commande (domotique...).
La complexité grandissante des applications fait qu'il est nécessaire de pouvoir aborder leurs conceptions à des niveaux d'abstractions élevés. En effet, il est très intéressant de travailler à ces niveaux (par exemple au niveau système) car les gains (en surface/temps/consomation/coût) qu'il est possible d'obtenir par diverses transformations (tant algorithmiques qu'architecturales) sont proportionnels au niveau d'abstraction auquel on se situe. De plus, les décisions prises au niveau système peuvent avoir un impact très important en terme de développement industriel.
En effet, une mauvaise adéquation application/architecture (architecture sur/sous-dimensionnée ou mal adaptée aux caractéristiques de l'application) peut imposer, soit de mettre sur le marché un produit trop cher ou peu performant, soit de relancer un cycle de conception entraînant des délais pouvant être rédhibitoires. L'ensemble de ces décisions à prendre peut être vu comme un espace de solutions potentielles à parcourir. Celui-ci étant très vaste pour une application (ensemble des couples algorithmes / architectures), il est nécessaire de l'explorer et d'effectuer des choix afin de le réduire. On conçoit aisément que cette exploration, lorsqu'elle est effectuée au niveau système, doit présenter un bon compromis vitesse (espace des solutions très vaste) Vs. précision (les choix faits sont lourds en conséquence pour la suite du flot de conception).
Les outils de conception actuels, pour de tels systèmes, sont connus sous le nom d'outils de codesign et se situent à des niveaux d'abstractions relativement faibles.
En outre, la plupart de ces outils partent d'une architecture cible figée (matériel et logiciel, par exemple un processeur et un ASIC) pour laquelle est choisie l'implantation soit matérielle (sur ASIC ou FPGA), soit logicielle de telle ou telle fonction pré-caractérisée. Ces outils ne permettent donc pas d'explorer les architectures propres aux différentes fonctions (estimation statique Vs. estimation dynamique). Il y a donc un nouveau pas à franchir, celui de l'exploration système comme moyen de choisir l'architecture cible ou bien encore de fixer les paramètres pour une architecture cible figée mais générique.
La méthode proposée dans cette thèse vise à réduire progressivement l'espace des solutions en permettant au concepteur d'effectuer des compromis entre plusieurs solutions, et ce à chaque niveau d'abstraction en s'appuyant sur un découpage fonctionnel et hiérarchique de l'application qui spécifie progressivement les aspects contrôles, traitements et transferts de données. La méthode est composée des éléments suivant : i) spécification de l'application dans un langage de haut niveau ; ii) caractérisation de l'application par un ensemble de métriques définissant l'orientation transfert mémoire, traitement ou contrôle ainsi que le parallélisme potentiel de ses sous-fonctions ; iii) estimation système dynamique des performances par l'exploration et l'exploitation du parallélisme ; iv) sélection des solutions prometteuses en vue de phases de projections architecturale et logicielle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía