Dissertations / Theses on the topic 'Implémentation et optimisation'

To see the other types of publications on this topic, follow the link: Implémentation et optimisation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 22 dissertations / theses for your research on the topic 'Implémentation et optimisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cognot, Richard. "La méthode D. S. I. : optimisation, implémentation et applications." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL003N.

Full text
Abstract:
La modélisation tridimensionnelle en géologie est un domaine en plein essor dont le but est de représenter, dans une forme facilement transmissible d'une personne à l'autre, la structure géométrique complexe du sous-sol. Les approches classiques de C. A. O. N'étant que peu adaptées à la complexité des données rencontrées en géologie, le professeur Mallet a proposé une nouvelle approche de modélisation, dans le cadre du projet GOCAD, approche basée sur une méthode d'interpolation en trois dimensions: Discrete Smooth Interpolation (D. S. I. ). Les travaux présentés dans cette thèse furent réalisés dans le cadre de ce projet, et consistaient en l'étude de cette méthode afin d'en optimiser l'utilisation. En particulier, nous nous sommes intéressés à la convergence de cette méthode et aux méthodes numériques d'accélération de cette convergence, ainsi qu'à la définition d'un modèle général d'implémentation utilisant des relations entre des objets support d'interpolation et des objets données, le modèle atomique-contrôleur. Quelques applications de ce modèle à des problèmes de géophysique seront alors présentées
APA, Harvard, Vancouver, ISO, and other styles
2

Ferrer, Ludovic. "Dosimétrie clinique en radiothérapie moléculaire : optimisation de protocoles et implémentation clinique." Nantes, 2011. https://archive.bu.univ-nantes.fr/pollux/show/show?id=b7183ac7-6fc1-4281-be4f-8a358c9320fc.

Full text
Abstract:
La radiothérapie moléculaire (rtm) consiste à détruire les cibles tumorales à l’aide de vecteurs marqués par des isotopes radioactifs. Cette discipline médicale se développe notamment au travers des succès obtenus dans les traitements des lymphomes non-hodgkiniens (lnh) par radioimmunothérapie. Une des clés de l’optimisation de la rtm repose sur la personnalisation des doses absorbées délivrées, i. E : viser les cibles tumorales en évitant d’être toxique aux tissus sains environnants. Le calcul des doses absorbées en rtm nécessite d’une part, la localisation spatiale et temporelle des vecteurs injectés par imagerie scintigraphique et d’autre part, la connaissance du milieu de transport des radiations émises, obtenue par imagerie tomodensitométrique. La précision globale de la dosimétrie clinique est fonction du niveau de précision de chacune de ces étapes. Actuellement, l’absence de protocole dosimétrique de référence standardisé et la grande hétérogénéité de mise en œuvre de ces protocoles conduisent à une évaluation délicate de la précision des calculs de dose absorbée. À travers ce travail de thèse, nous avons développé et évalué des approches de calcul de la dose absorbée qui nous ont permis de mettre en évidence une relation entre la dose absorbée à la moelle osseuse et la toxicité hématologique chez des patients atteints de lnh. Par ailleurs, nous avons imaginé et initié un projet scientifique, DosiTest, qui vise à évaluer l’impact des étapes permettant la réalisation d’une étude dosimétrique, au moyen d’une inter–comparaison multicentrique virtuelle basée sur une modélisation Monte–Carlo
Molecular radiotherapy (mrt) consists in destructing tumour targets by radiolabelled vectors. This nuclear medi¬cine specialty is being considered with increasing interest for example via the success achieved in the treatment of non-Hodgkin lymphomas by radioimmunotherapy. One of the keys of mrt optimization relies on the personalisa¬tion of absorbed doses delivered to the patient : This is required to ascertain that irradiation is focused on tumour cells while keeping surrounding healthy tissue irradiation at an acceptable — non-toxic — level. Radiation dose evaluation in mrt requires in one hand, the spatial and temporal localization of injected radioactive sources by scintigraphic imaging, and on a second hand, the knowledge of the emitted radiation propagating media, given by CT imaging. Global accuracy relies on the accuracy of each of the steps that contribute to clinical dosimetry. There is no reference, standardized dosimetric protocol to date. Due to heterogeneous implementations, evaluation of the accuracy of the absorbed dose is a difficult task. In this thesis, we developped and evaluated different dosimetric approaches that allow us to find a relationship between the aborbed dose to the bone marrow and haematological toxicity. Besides, we built a scientific project, called DosiTest, which aims at evaluating the impact of the various step that contribute to the realization of a dosimetric study, by means of a virtual multicentric comparison based on Monte–Carlo modelling
APA, Harvard, Vancouver, ISO, and other styles
3

Chaarani, Jamal. "Etude d'une classe d'algorithmes d'optimisation non convexe : implémentation et applications." Phd thesis, Grenoble 1, 1989. http://tel.archives-ouvertes.fr/tel-00333443.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Marina, Sahakyan. "Optimisation des mises à jours XML pour les systèmes main-memory: implémentation et expériences." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00641579.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Labonté, Francis. "Étude, optimisation et implémentation d'un quantificateur vectoriel algébrique encastré dans un codeur audio hybride ACELP/TCX." Mémoire, Université de Sherbrooke, 2002. http://savoirs.usherbrooke.ca/handle/11143/1205.

Full text
Abstract:
Un quantificateur vectoriel algébrique encastré pour un codeur ACELP/TCX est étudié et implémenté sur une plate-forme DSP (TMS320C54x). Ces travaux sont justifiés principalement par une demande croissante pour un codeur offrant de bonnes performances pour la parole et l'audio en bande élargie à des débits variant entre 16 et 32 kbps. Le codeur ACELP/TCX est un codeur bien adapté pour répondre à de telles situations. En effet, le modèle ACELP ª repose sur une approche (le codage temporel prédictif) adaptée au signal de parole alors que le modèle TCX est basé sur une approche de codage fréquentiel (codage par transformée), plus adaptée au signal audio en général. Le quantificateur étudié a déjà fait l'objet de plusieurs recherches. Cependant, les travaux pratiques accomplis jusqu'à maintenant n'ont pas été réalisés dans le but de minimiser la complexité de l'implémentation sur un processeur spécialisé en traitement de signal (DSP), mais pour démontrer son fonctionnement dans le cadre du codage de la parole et de comparer les performances avec d'autres techniques. L'optimisation réalisée dans le présent ouvrage a comme point de départ les travaux théoriques et les réalisations techniques effectuées dans des travaux réalisés dans le passé. La réduction de la complexité est au coeur du problème puisqu'avec le modèle ACELP/TCX, la complexité du quantificateur algébrique s'ajoute à celle du codeur ACELP ª , de la transformée temps/fréquence, etc. Même en réduisant la complexité du quantificateur de plus de 35% par rapport à la version initiale, un total non négligeable de 35MIPS est requis pour la quantification des coefficients de la transformée dans le codeur ACELP/TCX.
APA, Harvard, Vancouver, ISO, and other styles
6

Paquier, Williams. "Apprentissage ouvert de représentations et de fonctionalités en robotique : analyse, modèles et implémentation." Toulouse 3, 2004. http://www.theses.fr/2004TOU30233.

Full text
Abstract:
L'acquisition autonome de représentations et de fonctionnalités en robotique pose de nombreux problèmes théoriques. Aujourd'hui, les systèmes robotiques autonomes sont conçus autour d'un ensemble de fonctionnalités. Leurs représentations du monde sont issues de l’analyse d'un problème et d'une modélisation préalablement données par les concepteurs. Cette approche limite les capacités d'apprentissage. Nous proposons dans cette thèse un système ouvert de représentations et de fonctionnalités. Ce système apprend en expérimentant son environnement et est guidé par l’augmentation d’une fonction de valeur. L'objectif du système consiste à agir sur son environnement pour réactiver les représentations dont il avait appris une connotation positive. Une analyse de la capacité à généraliser la production d'actions appropriées pour ces réactivations conduit à définir un ensemble de propriétés nécessaires pour un tel système. Le système de représentation est constitué d'un réseau d'unités de traitement semblables et utilise un codage par position. Le sens de l'état d'une unité dépend de sa position dans le réseau. Ce système de représentation possède des similitudes avec le principe de numération par position. Une représentation correspond à l'activation d'un ensemble d'unités. Ce système a été implémenté dans une suite logicielle appelée NeuSter qui permet de simuler des réseaux de plusieurs millions d'unités et milliard de connexions sur des grappes hétérogènes de machines POSIX. Les premiers résultats permettent de valider les contraintes déduites de l'analyse. Un tel système permet d'apprendre dans un même réseau, de façon hiérarchique et non supervisée, des détecteurs de bords et de traits, de coins, de terminaisons de traits, de visages, de directions de mouvement, de rotations, d'expansions, et de phonèmes. NeuSter apprend en ligne en utilisant uniquement les données de ses capteurs. Il a été testé sur des robots mobiles pour l'apprentissage et le suivi d'objets
Autonomous acquisition of representations and functionalities by a machine address several theoretical questions. Today’s autonomous robots are developed around a set of functionalities. Their representations of the world are deduced from the analysis and modeling of a given problem, and are initially given by the developers. This limits the learning capabilities of robots. In this thesis, we propose an approach and a system able to build open-ended representation and functionalities. This system learns through its experimentations of the environment and aims to augment a value function. Its objective consists in acting to reactivate the representations it has already learnt to connote positively. An analysis of the generalization capabilities to produce appropriate actions enable define a minimal set of properties needed by such a system. The open-ended representation system is composed of a network of homogeneous processing units and is based on position coding. The meaning of a processing unit depends on its position in the global network. This representation system presents similarities with the principle of numeration by position. A representation is given by a set of active units. This system is implemented in a suite of software called NeuSter, which is able to simulate million unit networks with billions of connections on heterogeneous clusters of POSIX machines. .
APA, Harvard, Vancouver, ISO, and other styles
7

Guenard, Nicolas. "Optimisation et implémentation de lois de commande embarquées pour la téléopération de micro drones aériens X4-flyer." Nice, 2007. http://www.theses.fr/2007NICE4066.

Full text
Abstract:
Suite à l'engouement général pour les drones de petite taille durant ces dernières années, ainsi qu'à l'amélioration récente des nouvelles technologies, le CEA a proposé en 2003 la mise au point d'un drone miniature facilement téléopérable et capable d'effectuer des missions de reconnaissance et d'inspection en intérieur. Le vecteur d'intervention choisi pour ce type de mission est un quadrirotor connu sous le nom de "X4-flyer", particulièrement bien adapté au vol quasi-stationnaire. Toutefois, connu des modélistes et déjà présent dans le commerce sous la forme d'un jouet, ce drone se révèle être extrêmement dur à piloter pour un individu n'ayant aucune expérience du modélisme. Dans cette thèse, nous proposons différents algorithmes, dont la majorité est embarquable, permettant le contrôle simple et intuitif de l'appareil à partir de consignes en vitesse de translation provenant de l'utilisateur. D'autres algorithmes basés sur la vision 3D et 2D déportés sur une station sol, sont présentés et permettent l'asservissement du drone en position au-dessus d'une cible située au sol. Pour ce faire, dans un premier temps nous nous intéressons à la compréhension des différents phénomènes aérodynamiques agissant sur le "X4-flyer" ainsi qu'à l'obtention d'un modèle dynamique du quadrirotor. Par la suite, un retour d'état ainsi qu'une loi de commande adaptative non linéaire, facilement implementable dans le calculateur embarqué et basée sur le précédent modèle, sont présentés. Ce contrôleur réalise le compromis de prendre en compte les non linéarités du modèle ainsi que la simplicité et la facilité d' implémentation qu'aurait un contrôleur de type PID. Enfin, des asservissements 3D du drone puis 2D prenant en compte la dynamique complète du "X4-flyer" sont mis en place. L'ensemble des parties théoriques abordées sont testées via des simulations, puis validées sur le prototype du CEA
Now days, the interest for the small size Unmanned Aerial Vehicle (UAV) area is very important. In order to lead inspection and recognition missions, the French Atomic Energy Commission (CEA) is interested in the use of a rotary wings aerial vehicle suited for quasi-stationary flight conditions. Consequently, a prototype ideally suited for this type of mission and for stationary fight conditions, known as an "X4-flyer" has been built. This kind of small aerial robot is known from the modelist and can be bought as a toy. However, it is very difficult to control it without a lot of hours of traning. Consequently, this document presents several embedded algorithms allowing the simple control of the vehicule from simple user translational speed orders. Then, image-based visual servo controls, computed on a ground station, are equally presented and allow the stabilization of the UAV above a target situated on the ground. In order to do this, in a first time, we are interested in the understanding of the different aerodynamical effects applying on the "X4-flyer" and to the elaboration of a mathematical model of the vehicule. Then, a state feedback and a non linear adaptative control, easy to on board and based on the precedent model, are designed. This control law take into account the model non linearity. At least, 3D visual servoing and 2D visual servoing derived for the full dynamics of the system is designed. Each theoretical part of the document has been tested and validated on the experimental UAV
APA, Harvard, Vancouver, ISO, and other styles
8

Nguyen, Tung Lam. "Contrôle et optimisation distribués basés sur l'agent dans les micro-réseaux avec implémentation Hardware-in-the-Loop." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT022/document.

Full text
Abstract:
En ce qui concerne la hiérarchie de contrôle des micro-réseaux, la coordination des contrôleurs locaux est obligatoire aux niveaux secondaire et tertiaire. Au lieu d'utiliser une unité centrale comme approche conventionnelle, dans ce travail, des schémas distribués sont considérés. Les approches distribuées ont récemment fait l'objet d'une attention particulière en raison de leurs avantages en termes de fiabilité, d'évolutivité et de sécurité. Le système multi-agents est une technique avancée dont les propriétés les rendent aptes à servir de base à la construction de systèmes de contrôle distribués modernes. La thèse porte sur la conception d'agents visant à distribuer des algorithmes de contrôle et d'optimisation dans des micro-réseaux avec un déploiement en ligne réaliste sur une plate-forme Hardware-in-the-Loop. Sur la base de l'architecture à trois couches fournie par micro-réseaux, une plate-forme de laboratoire avec configuration Hardware-in-the-Loop est construite au niveau du système. Cette plateforme comprend deux parties : (1) un simulateur numérique en temps réel permet de simuler en temps réel des micro-réseaux de cas de test avec des contrôleurs locaux ; et (2) un cluster de Raspberry PI représente le système multi-agent fonctionnant dans un réseau de communication physique épars. Un agent est un programme en Python exécuté sur un seul Raspberry PI qui permet de transférer des données à ses voisins et d’effectuer des calculs selon des algorithmes de manière distribuée.Dans la thèse, nous appliquons les algorithmes distribués pour les niveaux de contrôle secondaire et tertiaire. Les contrôles secondaires distribués dans un micro-réseau îloté sont présentés selon deux approches d'algorithme de consensus à temps fini et d'algorithme de consensus moyen avec les améliorations des performances. Une extension de la plate-forme avec la Power Hardware-in-the-Loop et la communication basée sur la norme IEC 61850 est traitée pour rapprocher le déploiement des agents des applications industrielles. Au niveau de contrôle supérieur, les agents exécutent la méthode des multiplicateurs à sens alternatif pour déterminer les points de fonctionnement optimaux des systèmes de micro-réseaux en état d'îlot et de connexion au réseau. Les objectifs de contrôle secondaire et tertiaire sont atteints dans un cadre unique qui est rarement mentionné dans d'autres études.Dans l'ensemble, l'agent est explicitement étudié et déployé dans des conditions réalistes pour faciliter l'application des algorithmes distribués pour le contrôle hiérarchique dans les micro-réseaux. Cette recherche constitue une étape supplémentaire qui rapproche les algorithmes distribués de l'implémentation sur site
In terms of the control hierarchy of microgrids, the coordination of local controllers is mandatory in the secondary and tertiary levels. Instead of using a central unit as conventional approaches, in this work, distributed schemes are considered. The distributed approaches have been taken attention widely recently due to the advantages of reliability, scalability, and security. The multi-agent system is an advanced technique having properties that make them suitable for acting as a basis for building modern distributed control systems. The thesis focuses on the design of agents aiming to distributed control and optimization algorithms in microgrids with realistic on-line deployment on a Hardware-in-the-loop platform. Based on the provided three-layer architecture of microgrids, a laboratory platform with Hardware-in-the-loop setup is constructed in the system level. This platform includes two parts: (1) a digital real-time simulator uses to simulate test case microgrids with local controllers in real-time; and (2) a cluster of hardware Raspberry PIs represents the multi-agent system operating in a sparse physical communication network. An agent is a Python-based program run on a single Raspberry PI owing abilities to transfer data with neighbors and computing algorithms to control the microgrid in a distributed manner.In the thesis, we apply the distributed algorithms for both secondary and tertiary control level. The distributed secondary controls in an islanded microgrid are presented in two approaches of finite-time consensus algorithm and average consensus algorithm with the improvements in performances. An extension of the platform with Power Hardware-in-the-Loop and IEC 61850-based communication is processed to make the deployment of agents closer to industrial applications. On the top control level, the agents execute the Alternating Direction Method of Multipliers to find out the optimal operation points of microgrid systems in both islanded and grid-connect state. The secondary and tertiary control objectives are achieved in a single framework which is rarely reported in other studies.Overall, the agent is explicitly investigated and deployed in the realistic conditions to facilitate applications of the distributed algorithms for the hierarchical control in microgrids. This research gives a further step making the distributed algorithms closer to onsite implementation
APA, Harvard, Vancouver, ISO, and other styles
9

Dudka, Andrii. "etude, optimisation et implémentation en silicium du circuit de conditionnement intelligent haute-tension pour le système de récupération électrostatique d'énergie vibratoire." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01056404.

Full text
Abstract:
La récupération de l'énergie des vibrations est un concept relativement nouveau qui peut être utilisé dans l'alimentation des dispositifs embarqués de puissance à micro-échelle avec l'énergie des vibrations omniprésentes dans l'environnement. Cette thèse contribue à une étude générale des récupérateurs de l'énergie des vibrations (REV) employant des transducteurs électrostatiques. Un REV électrostatique typique se compose d'un transducteur capacitif, de l'électronique de conditionnement et d'un élément de stockage. Ce travail se concentre sur l'examen du circuit de conditionnement auto-synchrone proposé en 2006 par le MIT, qui combine la pompe de charge à base de diodes et le convertisseur DC-DC inductif de type de flyback qui est entraîné par le commutateur. Cette architecture est très prometteuse car elle élimine la commande de grille précise des transistors utilisés dans les architectures synchrones, tandis qu'un commutateur unique se met en marche rarement. Cette thèse propose une analyse théorique du circuit de conditionnement. Nous avons développé un algorithme qui par commutation appropriée de flyback implémente la stratégie de conversion d'énergie optimale en tenant compte des pertes liées à la commutation. En ajoutant une fonction de calibration, le système devient adaptatif pour les fluctuations de l'environnement. Cette étude a été validée par la modélisation comportementale.Une autre contribution consiste en la réalisation de l'algorithme proposé au niveau du circuit CMOS. Les difficultés majeures de conception étaient liées à l'exigence de haute tension et à la priorité de la conception faible puissance. Nous avons conçu un contrôleur du commutateur haute tension de faible puissance en utilisant la technologie AMS035HV. Sa consommation varie entre quelques centaines de nanowatts et quelques microwatts, en fonction de nombreux facteurs - paramètres de vibrations externes, niveaux de tension de la pompe de charge, la fréquence de la commutation de commutateur, la fréquence de la fonction de calibration, etc.Nous avons également réalisé en silicium, fabriqué et testé un commutateur à haute tension avec une nouvelle architecture de l'élévateur de tension de faible puissance. En montant sur des composants discrets de la pompe de charge et du circuit de retour et en utilisant l'interrupteur conçu, nous avons caractérisé le fonctionnement large bande haute-tension du prototype de transducteur MEMS fabriqué à côté de cette thèse à l'ESIEE Paris. Lorsque le capteur est excité par des vibrations stochastiques ayant un niveau d'accélération de 0,8 g rms distribué dans la bande 110-170 Hz, jusqu'à 0,75 µW de la puissance nette a été récupérée.
APA, Harvard, Vancouver, ISO, and other styles
10

Dudka, Andrii. "etude, optimisation et implémentation en silicium du circuit de conditionnement intelligent haute-tension pour le système de récupération électrostatique d'énergie vibratoire." Electronic Thesis or Diss., Paris 6, 2014. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2014PA066054.pdf.

Full text
Abstract:
La récupération de l'énergie des vibrations est un concept relativement nouveau qui peut être utilisé dans l'alimentation des dispositifs embarqués de puissance à micro-échelle avec l'énergie des vibrations omniprésentes dans l’environnement. Cette thèse contribue à une étude générale des récupérateurs de l'énergie des vibrations (REV) employant des transducteurs électrostatiques. Un REV électrostatique typique se compose d'un transducteur capacitif, de l'électronique de conditionnement et d’un élément de stockage. Ce travail se concentre sur l'examen du circuit de conditionnement auto-synchrone proposé en 2006 par le MIT, qui combine la pompe de charge à base de diodes et le convertisseur DC-DC inductif de type de flyback qui est entraîné par le commutateur. Cette architecture est très prometteuse car elle élimine la commande de grille précise des transistors utilisés dans les architectures synchrones, tandis qu'un commutateur unique se met en marche rarement. Cette thèse propose une analyse théorique du circuit de conditionnement. Nous avons développé un algorithme qui par commutation appropriée de flyback implémente la stratégie de conversion d'énergie optimale en tenant compte des pertes liées à la commutation. En ajoutant une fonction de calibration, le système devient adaptatif pour les fluctuations de l'environnement. Cette étude a été validée par la modélisation comportementale.Une autre contribution consiste en la réalisation de l'algorithme proposé au niveau du circuit CMOS. Les difficultés majeures de conception étaient liées à l'exigence de haute tension et à la priorité de la conception faible puissance. Nous avons conçu un contrôleur du commutateur haute tension de faible puissance en utilisant la technologie AMS035HV. Sa consommation varie entre quelques centaines de nanowatts et quelques microwatts, en fonction de nombreux facteurs - paramètres de vibrations externes, niveaux de tension de la pompe de charge, la fréquence de la commutation de commutateur, la fréquence de la fonction de calibration, etc.Nous avons également réalisé en silicium, fabriqué et testé un commutateur à haute tension avec une nouvelle architecture de l'élévateur de tension de faible puissance. En montant sur des composants discrets de la pompe de charge et du circuit de retour et en utilisant l'interrupteur conçu, nous avons caractérisé le fonctionnement large bande haute-tension du prototype de transducteur MEMS fabriqué à côté de cette thèse à l'ESIEE Paris. Lorsque le capteur est excité par des vibrations stochastiques ayant un niveau d'accélération de 0,8 g rms distribué dans la bande 110-170 Hz, jusqu'à 0,75 µW de la puissance nette a été récupérée
Vibration energy harvesting is a relatively new concept that can be used in powering micro-scale power embedded devices with the energy of vibrations omnipresent in the surrounding. This thesis contributes to a general study of vibration energy harvesters (VEHs) employing electrostatic transducers. A typical electrostatic VEH consists of a capacitive transducer, conditioning electronics and a storage element. This work is focused on investigations of the reported by MIT in 2006 auto-synchronous conditioning circuit, which combines the diode-based charge pump and the inductive flyback energy return driven by the switch. This architecture is very promising since it eliminates precise gate control of transistors employed in synchronous architectures, while a unique switch turns on rarely. This thesis addresses the theoretical analysis of the conditioning circuit. We developed an algorithm that by proper switching of the flyback allows the optimal energy conversion strategy taking into account the losses associated with the switching. By adding the calibration function, the system became adaptive to the fluctuations in the environment. This study was validated by the behavioral modeling. Another contribution consists in realization of the proposed algorithm on the circuit level. The major design difficulties were related to the high-voltage requirement and the low-power design priority. We designed a high-voltage analog controller of the switch using AMS035HV technology. Its power consumption varies between several hundred nanowatts and a few microwatts, depending on numerous factors - parameters of external vibrations, voltage levels of the charge pump, frequency of the flyback switching, frequency of calibration function, etc. We also implemented on silicon, fabricated and tested a high-voltage switch with a novel low power level-shifting driver. By mounting on discrete components the charge pump and flyback circuit and employing the proposed switch, we characterized the wideband high-voltage operation of the MEMS transducer prototype fabricated alongside this thesis in ESIEE Paris. When excited with stochastic vibrations having an acceleration level of 0.8 g rms distributed in the band 110-170 Hz, up to 0.75 µW of net electrical power has been harvested
APA, Harvard, Vancouver, ISO, and other styles
11

Vinot, Benoît. "Conception d'un système d'information distribué pour la conduite des flexibilités dans un réseau de distribution électrique : modélisation, simulation et implémentation." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM043/document.

Full text
Abstract:
Le secteur industriel de l'énergie, et les réseaux électriques en particulier, rendent à nos sociétés modernes d'immenses services dont nous ne pouvons plus nous passer. Ils présentent aussi, hélas, un certain nombre de graves inconvénients, notamment en matière d'impact environnemental. Ces inconvénients apparaissent aujourd'hui comme inacceptables; le secteur de l'énergie s'efforce donc actuellement de les amoindrir autant que possible, dans le cadre de ce qu'on appelle la transition énergétique.Outre d'indispensables efforts en matière de sobriété et d'efficacité énergétique, deux grands axes d'amélioration se dessinent: d'une part, le remplacement progressif de certains moyens de production d'électricité conventionnels par des moyens de production renouvelables; et d'autre part, le transfert de certains usages aujourd'hui non-électriques vers l'électricité --- en particulier en matière de mobilité.L'intégration au réseau électrique de ces nouveaux types de dispositifs pose cependant des difficultés techniques considérables, qui motivent depuis le début des années 2000 de nombreux travaux sur le thème de ce que l'on appelle aujourd'hui les "smart grids": des réseaux électriques compatibles avec les exigences de la transition énergétique, c'est-à-dire capables d'accueillir massivement les nouveaux types d'usages comme la production photovoltaïque et les bornes de recharge des véhicules électriques, ceci notamment grâce à l'utilisation accrue des nouvelles technologies de l'information et de la communication. Parmi les difficultés susmentionnées, qui limitent la capacité d'accueil du réseau, figurent les congestions, c'est-à-dire les limites physiques à la puissance que l'on peut faire transiter d'un point à un autre sur une infrastructure donnée. C'est à la gestion des congestions que nos travaux sont consacrés. À ce sujet, la question fondamentale est de déterminer par quel enchaînement de mesures, de calcul, de communications et in fine d'actions, on peut passer d'une situation de contrainte sur un réseau de distribution d'électricité, à une situation où cette contrainte a été éliminée par l'action des flexibilités environnantes; autrement dit, en augmentant ou en réduisant judicieusement la production et/ou la consommation locales, et éventuellement en jouant sur d'autres types de leviers.L'objet de cette thèse est de participer à l'élaboration des outils conceptuels et informatiques qui nous permettront de répondre à la question fondamentale ci-dessus. Nos travaux portent ainsi sur la question de la modélisation des réseaux de distribution d'électricité "flexibles", et sur l'implémentation concrète des modèles retenus sous forme d'un logiciel de simulation ad hoc, parfaitement adapté à l'étude de ce type de réseaux
The energy sector and the electrical networks in particular, provide great and indispensable services to our modern societies. Unfortunately, they also bring some serious drawbacks, especially with regard to the environment. These drawbacks are becoming more and more unacceptable; that is why the energy sector is trying to reduce them as much as possible, in the framework of the so-called energy transition.In addition to mandatory efforts in terms of energy efficiency and sobriety, two major directions of improvement have been identified: on the one hand, the progressive replacement of some conventional power plants with renewable production units; and on the other hand, the transfer of several non-electrical usages towards electricity --- in particular in the area of mobility.The integration of these new devices into electrical networks raise new technical challenges which, since the early 2000s, have been driving a lot of work about so-called "smart grids": electrical networks compatible with the requirements of the energy transition, ie. able to host new devices like photovoltaic solar panels and charging stations for electric vehicles, notably through the increasing usage of new information and communications technologies.Among the difficulties mentioned above, which limit the hosting capacity of the network, there are congestions ie. physical constraints limiting the amount of power that may be transmitted through a given infrastructure. Our work is devoted to the management of congestions. The fundamental issue thereon is to define a sequence of decisions, computations, communications and in fine actionsthat allows to move from a constrained situation on the electrical distribution network, to a situation in which the action of local flexibilities has lifted the constraint; in other words, to a situation where increasing or decreasing local generation and/or consumption, or taking some other control action, relieved the network.The aim of this thesis is to contribute to the development of conceptual and computing tools that will allow us to answer the fundamental aforementioned issue. Our work thus deals with the modelling of flexible electrical distribution networks, and with the tangible implementation of selected models in the form of ad hoc simulation software, specifically designed for the study of such networks
APA, Harvard, Vancouver, ISO, and other styles
12

Tano, Krongrossi. "Conception et implémentation d'un système intégrant des modèles de simulation et un SIADS (système interactif d'aide à la décision spécifique) de gestion portuaire : application à la gestion du port autonome d'Abidjan." Paris 9, 1994. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1994PA090020.

Full text
Abstract:
L'environnement économique mondial morose, accentué dans les pays sous-développés par le peu de moyens dont ils disposent, impose aux différents responsables une optimisation de leur gestion et une organisation rationnelle des structures existantes. C'est dans cet esprit que nous avons abordé ce travail qui a pour finalité l'optimisation de la gestion des ports en particulier celui du port autonome d’Abidjan. Après une analyse approfondie de la situation de ce port, nous nous sommes trouvés en présence d'un problème combinatoire vu le nombre de variables ou de paramètres entrant en ligne pour la prise d'une décision. Nous avons donc propose l'intégration d'un système à base de connaissances et de modèles de simulation suivant l'approche du SIADS (système interactif d'aide à la décision). Dans cette optique, nous avons réalisé un SIAD spécifique de gestion portuaire et quatre sous-modèles du modèle général de fonctionnement du port autonome d’Abidjan en vue de son optimisation à partir du GPSS/PC (general purpose simulation system version PC) et du générateur MAG (management applications generator), développé à l'université Paris-Dauphine
APA, Harvard, Vancouver, ISO, and other styles
13

Doré, Jean-Baptiste. "Optimisation conjointe de codes LDPC et de leurs architectures de décodage et mise en œuvre sur FPGA." Phd thesis, INSA de Rennes, 2007. http://tel.archives-ouvertes.fr/tel-00191155.

Full text
Abstract:
La découverte dans les années 90 des Turbo-codes et, plus généralement du principe itératif appliqué au traitement du signal, a révolutionné la manière d'appréhender un système de communications numériques. Cette avancée notable a permis la re-découverte des codes correcteurs d'erreurs inventés par R. Gallager en 1963, appelés codes Low Density Parity Check (LDPC). L'intégration des techniques de codage dites avancées, telles que les Turbo-codes et les codes LDPC, se généralise dans les standards de communications. Dans ce contexte, l'objectif de cette thèse est d'étudier de nouvelles structures de codage de type LDPC associées à des architectures de décodeurs alliant performances et flexibilité.
Dans un premier temps, une large présentation des codes LDPC est proposée incluant les notations et les outils algorithmiques indispensables à la compréhension. Cette introduction des codes LDPC souligne l'intérêt qu'il existe à concevoir conjointement le système de codage/décodage et les architectures matérielles. Dans cette optique, une famille de codes LDPC particulièrement intéressante est décrite. En particulier nous proposons des règles de construction de codes pour en contraindre le spectre des distances de Hamming. Ces contraintes sont intégrées dans la définition d'un nouvel algorithme de définition de codes travaillant sur une représentation compressée du code par un graphe.
Les propriétés structurelles du code sont ensuite exploitées pour définir l'algorithme de décodage. Cet algorithme, caractérisé par le fait qu'il considère une partie du code comme un code convolutif, converge plus rapidement que les algorithmes habituellement rencontrés tout en permettant une grande flexibilité en termes de rendements de codage. Différentes architectures de décodeurs sont alors décrites et discutées. Des contraintes sur les codes sont ensuite exposées pour exploiter pleinement les propriétés des architectures.
Dans un dernier temps, une des architectures proposées est évaluée par l'intégration d'un décodeur sur un composant programmable. Dans différents contextes, des mesures de performances et de complexité montrent l'intérêt de l'architecture proposée.
APA, Harvard, Vancouver, ISO, and other styles
14

Khoury, Jawad. "Optimisation de dimensionnement et de fonctionnement d’un système photovoltaïque assistant un réseau électrique intermittent pour une application résidentielle." Thesis, Cergy-Pontoise, 2016. http://www.theses.fr/2016CERG0763/document.

Full text
Abstract:
Le travail effectué dans cette thèse propose et évalue une solution au problème de coupure fréquente du courant électrique fourni par le réseau publique défaillant dans plusieurs pays en voie de développement. La solution consiste à installer un système de panneaux Photovoltaïques (PV) avec des batteries de stockage opérant conjointement avec le réseau. L’étude traite particu- lièrement le cas Libanais et considère une application résidentielle à consommation d’énergie élevée. La topologie du système proposé introduit des contraintes supplémentaires au fonction- nement de l’ensemble par rapport aux deux configurations classiques traitées dans la littérature, à savoir accrochage au réseau ou système autonome. L’étude vise principalement à maintenir une alimentation permanente en électricité du foyer ainsi qu’à réduire les frais du système installé tout en respectant les niveaux de confort exigés par les résidents. L’étude traite l’optimisation du système PV-Batteries, en partant du dimensionnement jusqu’au fonctionnement. Tout d’abord, sa configuration est optimisée en se basant sur une étude économique détaillée pour l’estimation des frais considérant une durée de vie de 20 ans. Le dimensionnement est formulé comme un problème d’optimisation visant la réduction du coût global du système. L’optimisation du fonctionnement du système PV-batterie vient en second lieu. Un algorithme de contrôle de charges est élaboré. Cet algorithme sert à éviter la coupure du courant électrique tout en mainte- nant des niveaux élevés de confort des habitants d’une part et en respectant les contraintes de fonctionnement du système d’autre part. La gestion des charges s’effectue à plusieurs niveaux, afin de gérer les charges prévisibles et imprévisibles. La commande développée assure la coordi- nation complète entre tous les composants de l’installation : réseau, panneaux PV, batteries de stockage et charges électriques. L’étude prouve que le contrôle des charges conçu ne se limite pas à l’optimisation du fonctionnement du système, mais contribue de même à la réduction de son coût global. Le logiciel établi est optimisé de sorte à assurer une faible consommation de mémoire et une prise de décision rapide afin de réaliser l’implémentation des codes sur des processeurs de type ARM Cortex-A9. Les résultats de simulation et d’implémentation montrent que le programme développé est générique, flexible, précis, rapide et fiable.Les résultats présentés dans cette thèse attestent que le système PV-batterie proposé est bien approprié pour remplacer le réseau public pendant les périodes de coupure du courant électrique dans une application résidentielle. De plus, ce système présente une bonne fiabilité surtout lorsqu’il est couplé avec le programme de contrôle des charges développé
This thesis addresses the issue of intermittent primary energy source in several developing countries and considers, in particular, the case study of Lebanon. A PV-battery backup system is proposed and assessed as a replacement of the grid energy during daily power outage periods for a high energy consuming residential house. The proposed system topology introduces more critical conditions and additional constraints on the operation of the system compared to standard on-grid or standalone PV systems. The main concern is to provide permanent electricity supply to the house, reduce the resulting fees, and ensure high performance and reliability of the backup system while respecting the residents’ comfort levels. This thesis aims at thoroughly assessing the suitability of the proposed backup system by focusing on various aspects of the system. First, its configuration is optimized through the development of a detailed economic study estimating the resulting fees over its 20-year lifetime. The sizing process is formulated as an optimization problem having the sole objective of minimizing the overall cost of the system. Furthermore, a detailed comparative study of various water heating techniques is conducted to the end of determining the most suitable configuration to be coupled with the proposed backup solution. Second, the thesis targets the operation optimization of the PV-battery system by implementing a Demand Side Management (DSM) program aiming at preventing the occurrence of loss of power supply to the house while maintaining high comfort levels to the inhabitants and respecting the operation constraints of the system. The control is divided into several layers in order to manage predictable and unpredictable home appliances. The strength of the developed control lies in ensuring the complete coordination between all the components of the installation: the grid, PV panels, battery storage, and the load demand. The benefits of the DSM are proven to go beyond the operation optimization of the system since they highly affect the sizing of the backup, and by extension, the overall resulting cost. The established program is optimized for the hardware implementation process by ensuring a low memory consumption and fast decision making. The developed C codes of the full DSM program are implemented on ARM Cortex-A9 processors. The simulation and implementation results show that the developed management program is highly generic, flexible, accurate, fast, and reliable.The results presented in this thesis validate that the proposed PV-Battery backup system is highly suitable to assist unreliable grids. It outperforms currently installed Diesel Generators and demonstrates a remarkable reliability especially when coupled with the developed DSM program
APA, Harvard, Vancouver, ISO, and other styles
15

Elloumi, Yaroub. "Parallélisme des nids de boucles pour l’optimisation du temps d’exécution et de la taille du code." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1199/document.

Full text
Abstract:
Les algorithmes des systèmes temps réels incluent de plus en plus de nids de boucles, qui sont caractérisés par un temps d’exécution important. De ce fait, plusieurs démarches de parallélisme des boucles imbriquées ont été proposées dans l’objectif de réduire leurs temps d’exécution. Ces démarches peuvent être classifiées selon deux niveaux de granularité : le parallélisme au niveau des itérations et le parallélisme au niveau des instructions. Dans le cas du deuxième niveau de granularité, les techniques visent à atteindre un parallélisme total des instructions appartenant à une même itération. Cependant, le parallélisme est contraint par les dépendances des données inter-itérations ce qui implique le décalage des instructions à travers les boucles imbriquées, provocant ainsi une augmentation du code proportionnelle au niveau du parallélisme. Par conséquent, le parallélisme total au niveau des instructions des nids de boucles engendre des implémentations avec des temps d’exécution non-optimaux et des tailles du code importantes. Les travaux de cette thèse s’intéressent à l’amélioration des stratégies de parallélisme des nids de boucles. Une première contribution consiste à proposer une nouvelle technique de parallélisme au niveau des instructions baptisée « retiming multidimensionnel décalé ». Elle vise à ordonnancer les nids de boucles avec une période de cycle minimale, sans atteindre un parallélisme total. Une deuxième contribution consiste à mettre en pratique notre technique dans le contexte de l’implémentation temps réel embarquée des nids de boucles. L’objectif est de respecter la contrainte du temps d’exécution tout en utilisant un code de taille minimale. Dans ce contexte, nous avons proposé une première démarche d’optimisation qui consiste à utiliser notre technique pour déterminer le niveau parallélisme minimal. Par la suite, nous avons décrit une deuxième démarche permettant de combiner les parallélismes au niveau des instructions et au niveau des itérations, en utilisant notre technique et le « loop striping »
The real time implementation algorithms always include nested loops which require important execution times. Thus, several nested loop parallelism techniques have been proposed with the aim of decreasing their execution times. These techniques can be classified in terms of granularity, which are the iteration level parallelism and the instruction level parallelism. In the case of the instruction level parallelism, the techniques aim to achieve a full parallelism. However, the loop carried dependencies implies shifting instructions in both side of nested loops. Consequently, these techniques provide implementations with non-optimal execution times and important code sizes, which represent limiting factors when implemented on embedded real-time systems. In this work, we are interested on enhancing the parallelism strategies of nested loops. The first contribution consists of purposing a novel instruction level parallelism technique, called “delayed multidimensional retiming”. It aims to scheduling the nested loops with the minimal cycle period, without achieving a full parallelism. The second contribution consists of employing the “delayed multidimensional retiming” when providing nested loop implementations on real time embedded systems. The aim is to respect an execution time constraint while using minimal code size. In this context, we proposed a first approach that selects the minimal instruction parallelism level allowing the execution time constraint respect. The second approach employs both instruction level parallelism and iteration level parallelism, by using the “delayed multidimensional retiming” and the “loop striping”
APA, Harvard, Vancouver, ISO, and other styles
16

Cassagne, Adrien. "Méthodes d’optimisation et de parallélisation pour la radio logicielle." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0231.

Full text
Abstract:
Une radio logicielle (en anglais Software-Defined Radio ou SDR) est un système de communications numériques reconfigurable utilisant des techniques de traitement du signal sur des architectures numériques programmables. Avec l'émergence de nouveaux standards de communications complexes et la puissance de calcul grandissante des processeurs généralistes, il devient intéressant d'échanger l'efficacité énergétique des architectures dédiées contre la souplesse et la facilité d'implémentation sur processeurs généralistes.Même lorsque l'implémentation d'un traitement numérique est finalement faite sur une puce dédiée, une version logicielle de ce traitement s'avère nécessaire en amont pour s'assurer des bonnes propriétés de la fonctionnalité. Cela est généralement réalisé via la simulation. Les simulations sont cependant souvent coûteuses en temps de calcul. Il n'est pas rare de devoir attendre plusieurs jours voire plusieurs semaines pour évaluer les performances du modèle fonctionnel d'un système.Dans ce contexte, cette thèse propose d'étudier les algorithmes les plus coûteux en temps de calcul dans les chaînes de communication numériques actuelles. Ces algorithmes sont le plus souvent présents dans des décodeurs de codes correcteurs d'erreurs au niveau récepteur. Le rôle du codage canal est d’accroître la robustesse vis à vis des erreurs qui peuvent apparaître lorsque l'information transite au travers d'un canal de transmission. Trois grandes familles de codes correcteurs d'erreurs sont étudiées dans nos travaux, à savoir les codes LDPC, les codes polaires et les turbo codes. Ces trois familles de codes sont présentes dans la plupart des standards de communication actuels comme le Wi-Fi, l’Ethernet, les réseaux mobiles 3G, 4G et 5G, la télévision numérique, etc. Les décodeurs qui en découlent proposent le meilleur compromis entre la résistance aux erreurs et la vitesse de décodage. Chacune de ces familles repose sur des algorithmes de décodage spécifiques. Un des enjeux principal de cette thèse est de proposer des implémentations logicielles optimisées pour chacune des trois familles. Des réponses sont apportées de façon spécifique puis des stratégies d'optimisation plus générales sont discutées. L'idée est d'abstraire des stratégies d'optimisation possibles en étudiant un sous-ensemble représentatif de décodeurs.Enfin, la dernière partie de cette thèse propose la mise en œuvre d'un système de communications numériques complet à l'aide de la radio logicielle. En s’appuyant sur les implémentations rapides de décodeurs proposées, un émetteur et un récepteur compatibles avec le standard DVB-S2 sont implémentés. Ce standard est typiquement utilisé pour la diffusion de contenu multimédia par satellite. À cette occasion, un langage dédié à la radio logicielle est développé pour tirer parti de l'architecture parallèle des processeurs généralistes actuels. Le système atteint des débits suffisants pour être déployé en condition opérationnelle.Les différentes contributions des travaux de thèse ont été faites dans une dynamique d'ouverture, de partage et de réutilisabilité. Il en résulte une bibliothèque à code source ouvert nommée AFF3CT pour A Fast Forward Error Correction Toolbox. Ainsi, tous les résultats proposés dans cette thèse peuvent aisément être reproduits et étendus. Cette philosophie est détaillée dans un chapitre spécifique du manuscrit de thèse
A software-defined radio is a radio communication system where components traditionally implemented in hardware are instead implemented by means of software. With the growing number of complex digital communication standards and the general purpose processors increasing power, it becomes interesting to trade the energy efficiency of the dedicated architectures for the flexibility and the reduced time to market on general purpose processors.Even if the resulting implementation of a signal processing is made on an application-specific integrated circuit, the software version of this processing is necessary to evaluate and verify the correct properties of the functionality. This is generally the role of the simulation. Simulations are often expensive in terms of computational time. To evaluate the global performance of a communication system can require from few days to few weeks.In this context, this thesis proposes to study the most time consuming algorithms in today's digital communication chains. These algorithms often are the channel decoders located on the receivers. The role of the channel coding is to improve the error resilience of the system. Indeed, errors can occur at the channel level during the transmission between the transmitter and the receiver. Three main channel coding families are then presented: the LDPC codes, the polar codes and the turbo codes. These three code families are used in most of the current digital communication standards like the Wi-Fi, the Ethernet, the 3G, 4G and 5G mobile networks, the digital television, etc. The resulting decoders offer the best compromise between error resistance and decoding speed known to date. Each of these families comes with specific decoding algorithms. One of the main challenge of this thesis is to propose optimized software implementations for each of them. Specific efficient implementations are proposed as well as more general optimization strategies. The idea is to extract the generic optimization strategies from a representative subset of decoders.The last part of the thesis focuses on the implementation of a complete digital communication system in software. Thanks to the efficient decoding implementations proposed before, a full transceiver, compatible with the DVB-S2 standard, is implemented. This standard is typically used for broadcasting multimedia contents via satellite. To this purpose, an embedded domain specific language targeting the software-defined radio is introduced. The main objective of this language is to take advantage of the parallel architecture of the current general purpose processors. The results show that the system achieves sufficient throughputs to be deployed in real-world conditions.These contributions have been made in a dynamic of openness, sharing and reusability, it results in an open source library named AFF3CT for A Fast Forward Error Correction Toolbox. Thus, all the results proposed in this thesis can easily be reproduced and extended. This philosophy is detailed in a specific chapter of the thesis manuscript
APA, Harvard, Vancouver, ISO, and other styles
17

Chaker, Jade. "Développements analytiques pour la caractérisation non-ciblée et par profilage de suspects de l’exposome chimique dans le plasma et le sérum humain par LC-ESI-HRMS : optimisation et implémentation d’un workflow haut débit pour l’identification de nouveaux biomarqueurs d’exposition dans le plasma et le sérum sanguins." Electronic Thesis or Diss., Rennes, École des hautes études en santé publique, 2022. http://www.theses.fr/2022HESP0002.

Full text
Abstract:
L’exposition chronique à des mélanges complexes de contaminants chimiques (xénobiotiques) est suspectée de contribuer à la survenue de certaines maladies chroniques. Encouragées par le développement de la spectrométrie de masse à haute résolution (SMHR) et l’émergence du concept d’exposome, des méthodes analytiques non-ciblées commencent à voir le jour pour caractériser l’exposition humaine aux xénobiotiques sans a priori. Ces méthodes innovantes pourraient ainsi permettre un changement d’échelle pour identifier de nouveaux facteurs de risque chimiques dans des études épidémiologiques. Ces approches présentent néanmoins plusieurs verrous, en lien, entre autres, avec la présence des contaminants à l’état de trace dans des matrices biologiques. Une optimisation de chaque étape analytique (préparation d’échantillon) et bio-informatique (prétraitement des données, annotation) est donc indispensable pour surmonter ces limites. L’objectif principal de ce travail est d’implémenter un workflow non-ciblé applicable aux études épidémiologiques pour apporter une solution opérationnelle à la caractérisation de l’exposome chimique interne à large échelle. Les développements effectués ont permis de proposer un workflow de préparation d’échantillon simple à mettre en œuvre et s’appuyant sur deux méthodes complémentaires pour élargir significativement l’espace chimique visible (jusqu’à 80% de marqueurs spécifiques à une méthode). L’optimisation de logiciels de prétraitement des données, réalisée pour la première fois dans un contexte exposomique, a permis de démontrer la nécessité d’ajuster certains paramètres pour assurer la détection des xénobiotiques à l’état de trace. Le développement d’un logiciel pour automatiser les approches de profilage de suspects avec des prédicteurs MS1, ainsi que le développement d’indices de confiance a permis de prioriser les marqueurs pertinents pour la curation manuelle. Une application à large échelle sur 125 échantillons de sérum de la cohorte Pélagie a permis de démontrer la robustesse et la sensibilité de ce nouveau workflow, ainsi que d’enrichir l’exposome chimique documenté avec la mise en évidence de nouveaux biomarqueurs d’exposition
Chronic exposure to complex mixtures of chemical contaminants (xenobiotics) is suspected to contribute to the onset of chronic diseases. The technological advances high-resolution mass spectrometry (HRMS), as well as the concept of exposome, have set the stage for the development of new non-targeted methods to characterize human exposure to xenobiotics without a priori. These innovative approaches may therefore allow changing scale to identify chemical risk factors in epidemiological studies. However, non-targeted approaches are still subject to a number of barriers, partly linked to the presence of these xenobiotics at trace levels in biological matrices. An optimization of every analytical (i.e. sample preparation) and bioinformatical (i.e. data processing, annotation) step of the workflow is thus required. The main objective of this work is to implement an HRMS-based non-targeted workflow applicable to epidemiological studies, to provide an operational solution to characterize the internal chemical exposome at a large scale. The undertaken developments allowed proposing a simple sample preparation workflow based on two complementary methods to expand the visible chemical space (up to 80% of features specific to one method). The optimization of various data processing tools, performed for the first time in an exposomics context, allowed demonstrating the necessity to adjust key parameters to accurately detect xenobiotics. Moreover, the development of a software to automatize suspect screening approaches using MS1 predictors, and of algorithms to compute confidence indices, allowed efficiently prioritizing features for manual curation. A large-scale application of this optimized workflow on 125 serum samples from the Pélagie cohort allowed demonstrating the robustness and sensitivity of this new workflow, and enriching the documented chemical exposome with the uncovering of new biomarkers of exposure
APA, Harvard, Vancouver, ISO, and other styles
18

Yassine, Adnan. "Etudes adaptatives et comparatives de certains algorithmes en optimisation : implémentations effectives et applications." Grenoble 1, 1989. http://tel.archives-ouvertes.fr/tel-00332782.

Full text
Abstract:
Sont étudiés: 1) l'algorithme SGGP Pour la résolution d'un programme linéaire général; 2) la méthode de pivotage de Lemke, la methode du gradient conjugue conditionnel et la methode de l'inverse partiel pour la résolution des programmes quadratiques convexes; 3) les méthodes d'approximation extérieure et les méthodes de coupes planes et les méthodes de région de confiance pour l'optimisation non convexe
APA, Harvard, Vancouver, ISO, and other styles
19

Seznec, Mickaël. "From the algorithm to the targets, optimization flow for high performance computing on embedded GPUs." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG074.

Full text
Abstract:
Les algorithmes de traitement numérique actuels nécessitent une puissance de calcul accrue pour obtenir des résultats plus précis et traiter des données plus volumineuses. Dans le même temps, les architectures matérielles se spécialisent, avec des accélérateurs très efficaces pour des tâches spécifiques. Dans ce contexte, le chemin du déploiement de l'algorithme à l'implémentation est de plus en plus complexe. Il est donc crucial de déterminer comment les algorithmes peuvent être modifiés pour tirer parti des capacités du matériel. Dans notre étude, nous nous sommes intéressé aux unités graphiques (GPU), un type de processeur massivement parallèle. Notre travail a consisté à l'adaptation entre l'algorithme et le matériel d'exécution. À l'échelle d'un opérateur mathématique, nous avons modifié un algorithme de convolution d'images pour utiliser les tensor cores et montré qu'on peut en doubler les performances pour de grands noyaux de convolution. Au niveau méthode, nous avons évalué des solveurs de systèmes linéaires pour l'estimation de flux optique afin de trouver le plus adéquat sur GPU. Grâce à ce choix et après de nouvelles optimisations spécifiques, comme la fusion d'itérations ou la réutilisation de zones mémoire, la méthode est deux fois plus rapide que l'implémentation initiale, fonctionnant à 60 images par seconde sur plateforme embarquée (30W). Enfin, nous avons également montré l'intérêt, dans le cadre des réseaux de neurones profonds, de cette méthode de conception d'algorithmes adaptée au matériel. Avec pour exemple l'hybridation entre un réseau conçu pour le flux optique avec une autre architecture préentrainée et conçue pour être efficace sur des cibles à faible puissance de calcul
Current digital processing algorithms require more computing power to achieve more accurate results and process larger data. In the meantime, hardware architectures are becoming more specialized, with highly efficient accelerators designed for specific tasks. In this context, the path of deployment from the algorithm to the implementation becomes increasingly complex. It is, therefore, crucial to determine how algorithms can be modified to take advantage of new hardware capabilities. Our study focused on graphics processing units (GPUs), a massively parallel processor. Our algorithmic work was done in the context of radio-astronomy or optical flow estimation and consisted of finding the best adaptation of the software to the hardware. At the level of a mathematical operator, we modified the traditional image convolution algorithm to use the matrix units and showed that its performance doubles for large convolution kernels. At a broader method level, we evaluated linear solvers for the combined local-global optical flow to find the most suitable one on GPU. With additional optimizations, such as iteration fusion or memory buffer re-utilization, the method is twice as fast as the initial implementation, running at 60 frames per second on an embedded platform (30 W). Finally, we also pointed out the interest of this hardware-aware algorithm design method in the context of deep neural networks. For that, we showed the hybridization of a convolutional neural network for optical flow estimation with a pre-trained image classification network, MobileNet, that was initially designed for efficient image classification on low-power platforms
APA, Harvard, Vancouver, ISO, and other styles
20

Jaber, Mohamad. "Implémentations Centralisée et Répartie de Systèmes Corrects par construction à base des Composants par Transformations Source-à-source dans BIP." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00531082.

Full text
Abstract:
The thesis studies theory and methods for generating automatically centralized and distributed implementations from a high-level model of an application software in BIP. BIP (Behavior, Interaction, Priority) is a component framework with formal operational semantics. Coordination between components is achieved by using multiparty interactions and dynamic priorities for scheduling interactions. A key idea is to use a set of correct source-to-source transformations preserving the functional properties of a given application software. By application of these transformations we can generate a full range of implementations from centralized to fully distributed. Centralized Implementation: the implementation method transforms the interactions of an application software described in BIP and generates a functionally equivalent program. The method is based on the successive application of three types of source-to-source transformations: flattening of components, flattening of connectors and composition of atomic components. We shown that the system of the transformations is confluent and terminates. By exhaustive application of the transformations, any BIP component can be transformed into an equivalent monolithic component. From this component, efficient standalone C++ code can be generated. Distributed Implementation: the implementation method transforms an application software described in BIP for a given partition of its interactions, into a Send/Receive BIP model. Send/Receive BIP models consist of components coordinated by using asynchronous message passing (Send/Receive primitives). The method leads to 3-layer architectures. The bottom layer includes the components of the application software where atomic strong synchronization is implemented by sequences of Send/Receive primitives. The second layer includes a set of interaction protocols. Each protocol handles the interactions of a class of the given partition. The third layer implements a conflict resolution protocol used to resolve conflicts between conflicting interactions of the second layer. Depending on the given partition, the execution of obtained Send/Receive BIP model range from centralized (all interactions in the same class) to fully distributed (each class has a single interaction). From Send/Receive BIP models and a given mapping of their components on a platform providing Send/Receive primitives, an implementation is automatically generated. For each class of the partition we generate C++ code implementing the global behavior of its components. The transformations have been fully implemented and integrated into BIP tool-set. The experimental results on non trivial examples and case studies show the novelty and the efficiency of our approach.
APA, Harvard, Vancouver, ISO, and other styles
21

Jaber, Mohamad. "Implémentations Centralisée et Répartie de Systèmes Corrects par construction à base des Composants par Transformations Source-à-source dans BIP." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM062.

Full text
Abstract:
La thèse étudie la théorie et les méthodes qui permettent de générer automatiquement des implémentations efficaces tant centralisées que distribuées à partir d'une langage de description de haut niveau pour les applications logicielles embarquées. Ce langage (modèle) appelé BIP (un acronyme pour Behavior, Interaction, Priority) est un outil de développement logiciel fondé sur une théorie saine qui permet la composition incrémentale de composants hétérogènes, ainsi que la génération de code. Une coordination entre les composantes est réalisée en utilisant des interactions multiparties et des priorités dynamiques pour planifier les interactions. L'idée de base consiste à utiliser un ensemble de transformations source-à-source correctes en préservant les propriétés fonctionnelles de l'application logiciel. En appliquant ces transformations, nous pouvons générer une gamme des implémentations centralisées, partiellement distribuées et entièrement distribuées. Implémentations Centralisées: la méthode transforme les interactions d'un logiciel décrit dans BIP et génère un programme équivalent au niveau fonctionnel. La méthode est basée sur l'application successive de trois types de transformations source-à-source: aplatissement des composants, aplatissement des connecteurs et la composition des composants. On a montré que le système des transformations est confluent et se termine. Par une application exhaustive de ces transformations, un composant BIP peut être transformé en un composant atomique. A partir de ce composant, un code C++ efficace peut être généré. Implémentations Distribuées: Pour une partition donnée des interactions la méthode transforme un application logiciel décrit en BIP, en un modèle Send/Receive BIP. Ce modèle BIP est constitué des composants coordonnés à l'aide des messages asynchrones (Send/Receive). La méthode conduit à une architecture de 3-couches. La couche inférieure comprend les composants du logiciel où les fortes synchronisations atomiques sont implémentées par des séquences des primitives Send/Receive. La deuxième couche comprend un ensemble de protocoles d'interaction. Chaque protocole gère un ensemble des interactions. La troisième couche implémente un protocole de résolution des conflits utilisées pour résoudre les conflits entre les interactions conflictuelles de la deuxième couche. A partir des modèles Send/Receive BIP, une implémentation C++ est générée automatiquement. Les transformations ont été implémentées et intégrées dans la chaîne d'outil BIP. Les résultats expérimentaux sur des exemples non triviaux et des études de cas montrent la nouveauté et l'efficacité de notre approche
The thesis studies theory and methods for generating automatically centralized and distributed implementations from a high-level model of an application software in BIP. BIP (Behavior, Interaction, Priority) is a component framework with formal operational semantics. Coordination between components is achieved by using multiparty interactions and dynamic priorities for scheduling interactions. A key idea is to use a set of correct source-to-source transformations preserving the functional properties of a given application software. By application of these transformations we can generate a full range of implementations from centralized to fully distributed. Centralized Implementation: the implementation method transforms the interactions of an application software described in BIP and generates a functionally equivalent program. The method is based on the successive application of three types of source-to-source transformations: flattening of components, flattening of connectors and composition of atomic components. We shown that the system of the transformations is confluent and terminates. By exhaustive application of the transformations, any BIP component can be transformed into an equivalent monolithic component. From this component, efficient standalone C++ code can be generated. Distributed Implementation: the implementation method transforms an application software described in BIP for a given partition of its interactions, into a Send/Receive BIP model. Send/Receive BIP models consist of components coordinated by using asynchronous message passing (Send/Receive primitives). The method leads to 3-layer architectures. The bottom layer includes the components of the application software where atomic strong synchronization is implemented by sequences of Send/Receive primitives. The second layer includes a set of interaction protocols. Each protocol handles the interactions of a class of the given partition. The third layer implements a conflict resolution protocol used to resolve conflicts between conflicting interactions of the second layer. Depending on the given partition, the execution of obtained Send/Receive BIP model range from centralized (all interactions in the same class) to fully distributed (each class has a single interaction). From Send/Receive BIP models and a given mapping of their components on a platform providing Send/Receive primitives, an implementation is automatically generated. For each class of the partition we generate C++ code implementing the global behavior of its components. The transformations have been fully implemented and integrated into BIP tool-set. The experimental results on non trivial examples and case studies show the novelty and the efficiency of our approach
APA, Harvard, Vancouver, ISO, and other styles
22

Yassine, Adnan. "Études adaptatives et comparatives de certains algorithmes en optimisation : implémentations effectives et applications." Phd thesis, 1989. http://tel.archives-ouvertes.fr/tel-00332782.

Full text
Abstract:
Sont étudiés: 1) l'algorithme s.g.g.p. Pour la résolution d'un programme linéaire général; 2) la méthode de pivotage de Lemke, la methode du gradient conjugue conditionnel et la methode de l'inverse partiel pour la résolution des programmes quadratiques convexes; 3) les méthodes d'approximation extérieure et les méthodes de coupes planes et les méthodes de région de confiance pour l'optimisation non convexe.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography