To see the other types of publications on this topic, follow the link: Mise à l’échelle automatique.

Dissertations / Theses on the topic 'Mise à l’échelle automatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Mise à l’échelle automatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Perera, Jayasuriya Kuranage Menuka. "AI-driven Zero-Touch solutions for resource management in cloud-native 5G networks." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2024. http://www.theses.fr/2024IMTA0427.

Full text
Abstract:
Le déploiement des réseaux 5G a introduit des architectures cloud-native et des systèmes de gestion automatisés, offrant aux fournisseurs de services de communication une infrastructure évolutive, flexible et agile. Ces avancées permettent une allocation dynamique des ressources, augmentant celles-ci en période de forte demande et les réduisant en période de faible utilisation, optimisant ainsi les CapEx et OpEx. Cependant, une observabilité limitée et une caractérisation insuffisante des charges de travail entravent la gestion des ressources. Une surprovisionnement pendant les périodes creuses augmente lescoûts, tandis qu’un sous-provisionnement dégrade la QoS lors des pics de demande. Malgré les solutions existantes dans l’industrie, le compromis entre efficacité des coûts et optimisation de la QoS reste difficile. Cette thèse aborde ces défis en proposant des solutions d’autoscaling proactives pour les fonctions réseau dans un environnement cloud native 5G. Elle se concentre sur la prévision précise de l’utilisation des ressources, l’identification des opérations de changement d’échelle à mettre en oeuvre, et l’optimisation des instants auxquels opérer ces ajustements pour préserver l’équilibre entre coût et QoS. De plus, une approche novatrice permet de tenir compte de façon efficace du throttling de la CPU. Le cadre développé assure une allocation efficace des ressources, réduisant les coûts opérationnels tout en maintenant une QoS élevée. Ces contributions établissent une base pour des opérations réseau 5G durables et efficaces et proposent une base pour les futures architectures cloud-native
The deployment of 5G networks has introduced cloud-native architectures and automated management systems, offering communication service providers scalable, flexible, and agile infrastructure. These advancements enable dynamic resource allocation, scaling resources up during high demand and down during low usage, optimizing CapEx and OpEx. However, limited observability and poor workload characterization hinder resource management. Overprovisioning during off-peak periods raises costs, while underprovisioning during peak demand degrades QoS. Despite industry solutions, the trade-off between cost efficiency and QoS remains unresolved. This thesis addresses these challenges by proposing proactive autoscaling solutions for network functions in cloud-native 5G. It focuses on accurately forecasting resource usage, intelligently differentiating scaling events (scaling up, down, or none), and optimizing timing to achieve a balance between cost and QoS. Additionally, CPU throttling, a significant barrier to this balance, is mitigated through a novel approach. The developed framework ensures efficient resource allocation, reducing operational costs while maintaining high QoS. These contributions establish a foundation for sustainable and efficient 5G network operations, setting a benchmark for future cloud-native architectures
APA, Harvard, Vancouver, ISO, and other styles
2

Stevens, Nolwenn. "Mise à l’échelle des interventions complexes en santé publique. Aspects conceptuels et méthodologiques." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0234.

Full text
Abstract:
Responsables politiques, chercheurs et acteurs partagent une volonté affichée de mobiliser les données probantes pour bâtir la politique de santé publique. Cette stratégie est motivée par un désir d’équité, un devoir de sécurité et d’efficacité et une nécessité de faire un usage raisonné des ressources. La mise à l’échelle des interventions participerait à la réalisation de cette stratégie. Toutefois, celle-ci n’est pas aisée. Il est nécessaire de baliser et sécuriser cette voie afin que la mise à l’échelle ne soit plus un pari risqué. C’est l’ambition que nous avons poursuivi en menant cette thèse. Notre recherche a été guidée par quatre questions principales : Qu’entend-on par « mise à l’échelle » ? Comment procéder à la mise à l’échelle ? Comment la sécuriser ? Quels défis la recherche interventionnelle en santé des populations doit-elle relever concernant la mise à l’échelle ? L’ensemble de ces questionnements étant circonscrit aux cas des interventions complexes à visée populationnelle. Pour répondre à nos objectifs, deux études ont été conduites successivement. Nous avons réalisé une revue de littérature internationale concernant les cadres et modèles conceptuels, les guides et les outils développés sur la mise à l’échelle des interventions de santé publique. Nous avons ensuite mené des entretiens semi-directifs auprès d’une variété d’acteurs ayant fait l’expérience de la mise à l’échelle d’une intervention de santé publique en contexte français dans l’objectif de recueillir leur expérience et leur perception du processus. Notre recherche a permis d’apporter des éclairages sur le concept même de mise à l’échelle, ainsi que d’en proposer une définition. Par ailleurs, nous proposons de la considérer comme un concept composite intégrant ceux d’implantation, de dissémination et de pérennisation. Elle a également permis de décrire l’éventail de stratégies adoptables pour la déployer que celles-ci concernent : i) l’expansion territoriale de l’intervention, ii) la pérennisation de l’intervention, et enfin iii) l’adéquation au réel. Le processus de mise à l’échelle est supporté par des démarches organisationnelles permettant d’engager la dynamique et un ensemble de huit activités essentielles. Enfin, un ensemble de conditions devront être colligées tandis que certains freins devront être évités. La littérature a permis d’identifier 30 leviers et 28 freins à la mise à l’échelle. Parmi ceux-ci les témoignages des expérimentateurs ont mis en exergue 6 facteurs catalyseurs et 6 inhibiteurs permettant de développer et de détailler les conditions les plus fondamentales qui influencent le processus. Pour finir notre recherche propose de démystifier l’intervention probante mais d’encourager l’adoption de démarches probantes. Elle suggère également de considérer des preuves utiles, plurielles, relatives et ancrées. Les questions liées à la généralisabilité des résultats, intrinsèquement liées à l’ambition de mise à l’échelle nécessitent de plus amples explorations. La reconnaissance identitaire de l’intervention liée à ce qui fonde son efficacité est un impératif qui doit être consolidé méthodologiquement. Tel qu’annoncé par l’expression « science des solutions », nous suggérons de porter notre regard académique au-delà des interventions et de transformer les connaissances issues des recherches interventionnelles en substrat permettant de faire émerger des solutions adaptées aux enjeux et aux situations. Enfin, s’engager dans une politique de mise à l’échelle des interventions nécessiterait également : une plus grande transparence dans le processus de sélection des interventions, une réorientation des financements attribués de l’animation vers les services et activités support et la mise en place de dispositifs de monitorage. L’identification ou la création de structures ressources et expertes, pour accompagner les différentes parties prenantes dans la conduite de ce processus complexe pourrait être d’un grand secours
Politicians, researchers and stakeholders all share a desire to mobilise evidence to build public health policy. This strategy is motivated by a desire for equity, a duty to ensure safety and effectiveness, and a need to make rational use of resources. Scaling up interventions would be the way to achieve this strategy. However, this is not easy. It is necessary to mark out and secure this path so that scaling up is no longer a risky gamble. This is the ambition we have pursued in this thesis. Our research was guided by four main questions: what do we mean by 'scaling up'? How do we scale up? How can it be made safe? What challenges does population health intervention research face in terms of scaling up? All these questions are limited to the case of complex population-based interventions. To meet our objectives, we conducted two successive studies. We carried out a review of the international literature on conceptual frameworks and models, guides and tools developed for scaling up public health interventions. We then conducted semi-structured interviews with a variety of stakeholders who had experience of scaling up a public health intervention in the French context, with the aim of gathering their experiences and perceptions of the process. Our research has enabled us to shed light on the very concept of scaling up, and to propose a definition. In addition, we propose to consider it as a composite concept, incorporating those of implementation, dissemination and sustainability. It has also made it possible to describe the range of strategies that can be adopted to deploy it, whether these concern: i) the territorial expansion of the intervention, ii) the sustainability of the intervention, and finally iii) its relevance to reality. In addition, this process is supported by organisational approaches that enable the dynamic to be set in motion and a set of eight essential activities. Finally, a set of conditions will have to be collected, and certain obstacles will have to be avoided. The literature has identified 30 levers and 28 obstacles to scaling up. Among these, the testimonies of experimenters have highlighted 6 catalyst factors and 6 inhibitors, enabling us to develop and detail the most fundamental conditions influencing the process. Finally, our research proposes to demystify evidence-based intervention but to encourage the adoption of evidence-based approaches. It also suggests considering evidence that is useful, plural, relative and grounded. Questions relating to the generalisability of results, intrinsically linked to the ambition of scaling up, require further exploration. Recognition of the identity of the intervention, linked to what underpins its effectiveness, is an imperative that needs to be consolidated methodologically. As announced by the expression "science of solutions", we suggest that we take our academic vision beyond interventions and transform the knowledge gained from intervention research into substrates that enable the emergence of solutions adapted to the issues and situations at stake. Finally, embarking on a policy of scaling up interventions would also require: greater transparency in the process of selecting interventions, a redirection of funding from leadership to support services and activities, and the introduction of monitoring systems. The identification or creation of expert resource structures to support the various stakeholders in this complex process could be a great help
APA, Harvard, Vancouver, ISO, and other styles
3

Rivière, Pascal. "Mise au point automatique et interactive de modeles." Caen, 1994. http://www.theses.fr/1994CAEN2058.

Full text
Abstract:
Le but de ce travail est de formaliser et d'automatiser une etape peu etudiee du processus de modelisation: l'ajustement du modele aux connaissances ou aux a priori du modelisateur ; ceci resulte d'un mecanisme de validation subjectif, ce qui n'a de sens que pour des modeles statistiques. Dans une premiere partie, nous explicitons donc la notion de modele, son interet, ainsi que la facon de construire et de remettre en question cet objet mathematique. Le cas des modeles economiques est ensuite etudie, l'accent etant mis plus particulierement sur le calage de ces modeles, sa justification, et ses tenants et aboutissants ; une formulation mathematique generale du meta-probleme du calage est proposee. Dans une troisieme partie, nous en presentons une approche differente, consistant a simuler le modelisateur lorsqu'il ajuste son modele. Pour realiser cela, un systeme expert a base de regles a ete ecrit, sur la base d'entretiens avec des specialistes de la modelisation macroeconomique. Mais la methode de mise au point la plus efficace, non limitee a l'economie, est celle qui represente les antagonismes entre les diverses connaissances par des forces de rappel, qui eventuellement s'opposent. Cette technique, appliquee aujourd'hui a l'insee, oblige le modelisateur a afficher ses connaissances, et lui permet de detecter ses propres contradictions afin qu'il puisse reformuler son probleme ; cette phase interactive de la mise au point precede une phase automatique, puisqu'a connaissances fixees, l'ajustement de modele est ramene a un probleme bien pose
APA, Harvard, Vancouver, ISO, and other styles
4

Severini, Alfiero. "Mise au point d'un système de traduction automatique italien-français." Paris 13, 2001. http://www.theses.fr/2001PA131007.

Full text
Abstract:
Nous présentons dans ce travail, qui a une connotation méthodologique et qui est orienté vers lápplication, les résultats d'une étude et d'une activité de développement qui se sont concrétisés dans la mise au point d'un système de traduction automatique italien-français. Dans la première des trois parties, dans lesquelles s'articule ce travail, nous décrivons les différentes composantes d'un système de traduction automatique Systran ainsi que les étapes successives qui nous ont permit d'aboutir à partir des ressources disponibles, à un système de traduction italien-français opérationnel. Nous décrivons également le processus de création et l'élargissement du lexique de base. Dans la deuxième partie, nous illustrons, avec beaucoup de détails et d'exemples, les activités de développement linguistique et les interventions effectuées aux différents niveaux du système qui, graduellement, ont permis d'améliorer la qualité et de stabiliser le système dans son ensemble. Dans la troisième partie, nous évaluons le travail accompli et jetons un regard critique sur ce couple de langues ainsi que sur le système Systran en général et sur ses réelles limites. En guise de conclusion, nous avançons quelques propositions pour élargir la couverture sémantique du lexique et pour améliorer le traitement des expressions figées et des expressions idiomatiques.
APA, Harvard, Vancouver, ISO, and other styles
5

RUESCH, SANDRA. "Mise en oeuvre d'un progiciel general de traitement automatique d'images stereoscopiques." Paris 7, 1994. http://www.theses.fr/1994PA077365.

Full text
Abstract:
Cette these a pour objet de presenter une methode de mise en correspondance automatique d'images stereoscopiques, et son application a la realisation de modeles numeriques de terrain a partir d'images spot. La methodologie mise en oeuvre est basee sur un principe d'appariement hierarchique de primitives. La hierarchie se situe a deux niveaux : une pyramide de resolution, qui consiste a traiter les images a une resolution initialement degradee, puis de plus en plus precise, jusqu'a traiter les images en pleine resolution ; et une hierarchie de lissage, qui consiste, pour chaque resolution, a apparier en premier lieu les images fortement lissees, puis de moins en moins, jusqu'a apparier les images non filtrees. La mise en correspondance a chaque niveau de lissage et pour chaque resolution est effectuee sur des primitives qui sont les contours binarises de l'image. L'application de cette methode a la realisation de mnt a partir d'images spot necessite la modelisation geometrique de prise de vue du satellite. Le modele qui a ete etabli est presente, ainsi que la chaine complete de traitements necessaires a l'obtention d'un mnt et des produits derives qui en resultent. Un grand nombre de mnt ont ete realises, et des mesures ont ete effectuees pour quantifier la qualite des mnt obtenus ; les resultats de ces mesures sont egalement presentes. Enfin, d'autres applications possibles de cette methode de mise en correspondance sont exposees.
APA, Harvard, Vancouver, ISO, and other styles
6

Kermad, Chafik. "Segmentation d'image: recherche d'une mise en oeuvre automatique par coopération de méthodes." Phd thesis, Université Rennes 1, 1997. http://tel.archives-ouvertes.fr/tel-00008781.

Full text
Abstract:
La thématique de recherche dans laquelle s'inscrit cette thèse est celle de la segmentation d'images. Les travaux menés ont permis la conception et le développement d'un système d'analyse adaptable à plusieurs catégories d'images dont les régions peuvent être de nature uniforme et/ou texturée. Un intérêt tout particulier a été accordé à l'aspect automatique et non-supervisé du dispositif. L'architecture du système proposé combine deux concepts. Le premier, fondé sur un procédé d'intégration d'informations issues de différentes méthodes, permet de tirer parti des avantages de chacune d'elles. Le second concept s'inspire de la perception active par l'introduction d'une boucle de retour dans le système afin de corriger et d'ajuster les paramètres de contrôle des différentes techniques de segmentation. Le principe de la coopération proposée introduit un mécanisme de vérification de la cohérence par comparaison des résultats des méthodes qui coopèrent. Cet aspect fait défaut à un bon nombre d'approches coopératives. Le système mis au point est composé de deux modules. Le premier est dédié à l'extraction de régions uniformes ou faiblement texturées. Le principe est fondé sur une coopération itérative entre une méthode de détection de contours et une méthode d'extraction de régions. Ces deux méthodes sont itérées avec des critères de plus en plus tolérants jusqu'à la convergence vers des résultats cohérents et stables. La cohérence est contrôlée et vérifiée en minimisant une mesure de dissimilarité entre les contours et les régions. Le but est ainsi de fournir une solution optimale au sens de la compatibilité entre les deux segmentations. Le second module localise les primitives « textures » afin de réactualiser et corriger les primitives « contours » et « régions » extraites par le premier module. Cette localisation s'appuie sur une classification automatique par multi-seuillage exploitant certains mécanismes de la perception visuelle, et sur une fusion des régions multi-seuillées basée sur la minimisation d'un critère de similarité. L'efficacité de l'approche mise au point s'est traduite, dans la plupart des cas examinés, par une détection cohérente des éléments représentatifs de l'image.
APA, Harvard, Vancouver, ISO, and other styles
7

Salmeron, Eva. "Mise en coïncidence automatique des contours extraits d’images aériennes et d’éléments cartographiques." Compiègne, 1986. http://www.theses.fr/1986COMPD018.

Full text
Abstract:
Les méthodes étudiées partent d’extraction automatique de primitives sur des images aériennes ou satellites monochromes, notamment les contours caractéristiques (amers). On peut les comparer aux contours ou tracés cartographiques des amers (routes, voies ferrées, rivières, etc…). Deux nouvelles méthodes sont ensuite proposées pour calculer le déplacement (translation, rotation) entre l’image aérienne et son modèle-carte. Une stratégie globale, basée sur des tables de distances, calcule la coïncidence optimale entre les deux graphiques (contours, contours symboliques). Une autre méthode, basée sur des notions plus locales et sur une relaxation probabiliste, étudie la mise en correspondance des segments de droite composant les contours des deux graphiques. Ces deux approches fournissent des résultats satisfaisant sur de vrais couples image aérienne-carte.
APA, Harvard, Vancouver, ISO, and other styles
8

KERMAD, CHAFIK DJALAL. "Segmentation d'images : recherche d'une mise en uvre automatique par cooperation de methodes." Rennes 1, 1997. http://www.theses.fr/1997REN10109.

Full text
Abstract:
Dans le cadre de ce memoire, nous avons developpe un systeme de segmentation adapte a l'analyse de plusieurs types d'images, riches en details et dont les regions peuvent etre de nature uniforme et/ou texturee. Un interet tout particulier a ete accorde a l'aspect automatique et non-supervise du dispositif. Ceci implique, d'une part, la multiplication des traitements, et d'autre part, l'adoption d'une demarche progressive ou la formation des primitives s'opere de maniere cooperative et guidee. Le systeme mis au point entre dans le cadre des methodes cooperatives. L'architecture du systeme propose combine deux concepts. Le premier, fonde sur un procede d'integration d'informations issues de differentes methodes, permet de tirer parti des avantages de chacune d'elles. Le second concept s'inspire de la perception active par l'introduction d'une boucle de retour dans le systeme afin de corriger et d'ajuster les parametres de controle des differentes techniques de segmentation. Le principe de la cooperation proposee introduit un mecanisme de verification de la coherence par comparaison des resultats des methodes qui cooperent. Cet aspect fait defaut a un bon nombre d'approches cooperatives. Le systeme developpe est compose de deux modules. Le premier est dedie a l'extraction de regions uniformes ou faiblement texturees. Le principe est fonde sur une cooperation iterative entre une methode de detection de contours et une methode d'agregation de points. Ces deux methodes sont iterees avec des criteres de plus en plus tolerants jusqu'a la convergence vers des resultats coherents et stables. La coherence est realisee en minimisant une distance de similarite entre les contours et les regions. Le but est ainsi de fournir une solution optimale au sens de la compatibilite entre les deux segmentations. Le second module localise les primitives textures afin de reactualiser et corriger les primitives contours et regions extraites par le premier module. Cette localisation s'appuie sur une classification automatique par multi-seuillage exploitant certains mecanismes de la perception visuelle, et sur une fusion des regions multi-seuillees minimisant un critere de similarite. L'efficacite de notre approche s'est traduite, dans la plupart des cas examines, par une detection coherente des elements representatifs de l'image. Elle a ete particulierement constatee lors de la comparaison avec d'autres methodes. Mots-cles : segmentation d'images, cooperation de methodes, detection de contours, analyse de textures, perception du contraste, adaptativite, mesure de la coherence, distance entre images de contours, evaluation des resultats de segmentation.
APA, Harvard, Vancouver, ISO, and other styles
9

Cao, Van Toan. "La mise en registre automatique des surfaces acquises à partir d'objets déformables." Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26764.

Full text
Abstract:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Three-dimensional registration (sometimes referred to as alignment or matching) is the process of transforming many 3D data sets into the same coordinate system so as to align overlapping components of these data sets. Two data sets aligned together can be two partial scans from two different views of the same object. They can also be two complete models of an object generated at different times or even from two distinct objects. Depending on the generated data sets, the registration methods are classified into rigid registration or non-rigid registration. In the case of rigid registration, the data is usually acquired from rigid objects. The registration process can be accomplished by finding a single global rigid transformation (rotation, translation) to align the source data set with the target data set. However, in the non-rigid case, in which data is acquired from deformable objects, the registration process is more challenging since it is important to solve for both the global transformation and local deformations. In this thesis, three methods are proposed to solve the non-rigid registration problem between two data sets (presented in triangle meshes) acquired from deformable objects. The first method registers two partially overlapping surfaces. This method overcomes some limitations of previous methods to solve large global deformations between two surfaces. However, the method is restricted to small local deformations on the surface in order to validate the descriptor used. The second method is developed from the framework of the first method and is applied to data for which the deformation between the two surfaces consists of both large global deformation and small local deformations. The third method, which exploits both the first and second method, is proposed to solve more challenging data sets. Although the quality of alignment that is achieved is not as good as the second method, its computation time is accelerated approximately four times since the number of optimized parameters is reduced by half. The efficiency of the three methods is the result of the strategies in which correspondences are correctly determined and the deformation model is adequately exploited. These proposed methods are implemented and compared with other methods on various types of data to evaluate their robustness in handling the non-rigid registration problem. The proposed methods are also promising solutions that can be applied in applications such as non-rigid registration of multiple views, 3D dynamic reconstruction, 3D animation or 3D model retrieval.
APA, Harvard, Vancouver, ISO, and other styles
10

Zehani, Mongia. "Optimisation du procédé polyol pour la synthèse de nanoparticules d'oxyde de zinc : mise à l'échelle du procédé et applications photovoltaïques." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132044/document.

Full text
Abstract:
Grâce aux développements des méthodes de synthèse et de caractérisation, les nanomatériaux constituent un champ d'investigation de plus en plus actif et attractif. Cette thèse s'attache à étudier un procédé de synthèse de nanoparticules d’oxyde de zinc par voie polyol. Ce procédé a l’avantage de fournir une large variété morphologique de particules présentant une bonne qualité cristalline. Dans cette thèse, nous montrons qu’en variant les paramètres de synthèse nous pouvons moduler la taille, la distribution de taille et la morphologie des nanoparticules pour les obtenir en forme de nanosphères aussi fines que 6 nm ou des nanofils aussi longs que600 nm. Notre étude systémique a porté sur un ensemble de paramètres qui contrôlent la réaction d’hydrolyse forcée incluant la stoechiométrie, la température, la nature du polyol mais également l’agitation, l’injection des réactifs et l’activation par ultra sons du milieu. Nous montrons que la forme des nanoparticules est déterminée par la compétition entre les réactions de croissance de différentes faces du cristal d’oxyde de zinc. Notre étude a permis aussi de comparer différents dispositifs de mélange comme le réacteur du laboratoire, le T de mélange et les jets libres. Par ailleurs, pour produire en masse ces nano objets nous avons développé une stratégie originale pour comprendre l’effet du mélange sur la taille des nanoparticules. Notre approche s’appuie sur la résolution numérique des équations de Navier-Stokes et la corrélation entre les profils d’énergie turbulente dissipée et la taille des nanoparticules mesurée expérimentalement. L’application au cas spécifique de l’oxyde de zinc nous a permis de produire jusqu’à ~50 g de nanoparticules par Batch. Ces nanoparticules ont par la suite été incorporées comme matériau semi conducteur dans des cellules photovoltaïques à colorant préparées à l’École Nationale Supérieure de Chimie de Paris. En effet, la richesse morphologique de ZnO obtenu par voie polyol laisse présager une bonne adsorption du colorant à sa surface. Nos résultats montrent que les rendements de photoconversion dépendent aussi bien de la morphologie que de la taille. Les meilleures cellules élaborées dans cette thèse ont un rendement qui avoisine 5.3 %
Thanks to developments in synthesis methods and characterization techniques, nanomaterials research field is increasingly active and attractive. This thesis aims to investigate the polyol process for zinc oxide nanoparticles synthesis. Indeed, this method has the advantage of providing a wide variety of particle morphology with a good crystalline quality. In this thesis, we show that by varying the synthesis conditions we can adjust the size, the size distribution and the morphology of nanoparticles to obtain either shaped nanospheres as small as 6 nm or nanowires as long as 600 nm. Our systemic study focused on a set of parameters that control the forced hydrolysis reaction including stoichiometry, temperature, nature of the polyol but also mixing, injection of reagents and ultrasound activation. We show that the shape of the nanoparticles is determined by the competition between growth rates of different zinc oxide crystal facets. Our study also compared different mixing devices such as laboratory reactor, T- mixer and impinging jets. More over, to mass produce zinc oxide nanoparticles, we developed an original strategy to understand the effect of mixing on nanoparticle size. In our approach, we correlate the turbulent energy dissipated as obtained from Computation Fluid Dynamics with theme asured nanoparticle size. The application to the specific case of zinc oxide has allowed us to produce sample aliquots of ~50 g per Batch. These nanoparticles were subsequently incorporated into dye-sensitized solar cells as semi conducting material at the École Nationale Supérieure de Chimie de Paris. Indeed, the morphological richness of the zinc oxide produced via polyol process suggests good adsorption of the dye on their surfaces. Our results show that the photoconversion efficiencies depend both on the morphology and the size. Our best photoconversion efficiency approaches 5.3%
APA, Harvard, Vancouver, ISO, and other styles
11

Ngo, Tri Dat. "Mise à l’échelle d’un écoulement diphasique avec gravité dans un milieu géologique hétérogène : application au cas de la séquestration du CO₂." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS005/document.

Full text
Abstract:
Ce travail de thèse porte sur la modélisation mathématique et la simulation numérique de la migration par gravité et capillarité du CO₂ supercritique injecté dans un site de séquestration géologique hétérogène. Les simulations sont réalisées à l'aide du code DuMux. Particulièrement, on s'intéresse à la mise à l'échelle, de l'échelle de la cellule à l'échelle du réservoir, d'un modèle d'écoulement diphasique CO₂ -saumure, au sein d'un milieu stratifié périodique constitué d'un réseau de barrières peu perméables horizontales, continues ou discontinues. La mise à l'échelle est effectuée par la méthode asymptotique à double échelle. Dans un premier temps, on considère le cas d'une colonne verticale parfaitement stratifiée. Un modèle homogénéisé est développé puis validé par simulation numérique pour différentes valeurs du nombre capillaire et du flux incident de CO₂ . La méthode d'homogénéisation est appliquée au cas d'un écoulement dans un milieu bidimensionnel constitué de strates discontinues. Par l'effet de gravité, le CO₂ s'accumule sous les strates peu perméables, ce qui conduit à un problème mathématique local non standard. Cette stratification est modélisée à l'aide de l'approche des courants de gravité. L'approche est étendue au cas des strates semi-perméables et en prenant en compte la capillarité. Le modèle mis à l'échelle est comparé à des simulations numériques effectuées pour différents types de strates, avec ou sans pression capillaire, et sa limite de validité est discutée pour chacun de ces cas. La dernière partie de la thèse est dédiée à l'étude des performances du code DuMux pour simuler par calcul parallèle l'injection et la migration de CO₂ dans des milieux hétérogènes tridimensionnels (milieu périodique stratifié, milieu fluviatile et milieu réservoir SPE10)
This work deals with the mathematical modeling and the numerical simulation of the migration under gravity and capillarity effects of the supercritical CO₂ injected into a geological heterogeneous sequestration site. The simulations are performed with the code DuMux. Particularly, we consider the upscaling, from the cell scale to the reservoir scale, of a two-phase (CO₂ -brine) flow model within a periodic stratified medium made up of horizontal low permeability barriers, continuous or discontinuous. The upscaling is done by the two-scale asymptotic method. First, we consider perfectly layered media. An homogenized model is developed and validated by numerical simulation for different values of capillary number and the incident flux of CO₂ . The homogenization method is then applied to the case of a two-dimensional medium made up of discontinuous layers. Due to the gravity effect, the CO₂ accumulates under the low permeability layers, which leads to a non-standard local mathematical problem. This stratification is modeled using the gravity current approach. This approach is then extended to the case of semi-permeable stratas taking into account the capillarity. The upscaled model is compared with numerical simulations for different types of layers, with or without capillary pressure, and its limit of validity is discussed in each of these cases. The final part of this thesis is devoted to the study of the parallel computing performances of the code DuMux to simulate the injection and migration of CO₂ in three-dimensional heterogeneous media (layered periodic media, fluvial media and reservoir model SPE 10)
APA, Harvard, Vancouver, ISO, and other styles
12

Beaurepaire, Lionel. "Contribution à la mise en œuvre d'une chaîne automatique de filtrage d'images numériques." Rennes 1, 1996. http://www.theses.fr/1996REN10195.

Full text
Abstract:
La plupart des images numeriques subissent des degradations lors de leur formation. Il est important de supprimer ces degradations afin de faciliter l'exploitation de ces images. L'objectif de cette these est de concevoir une chaine automatique de filtrage d'images numeriques en utilisant un minimum de connaissances a priori sur l'image et sur le bruit. Trois types de bruit sont pris en compte: le bruit impulsionnel, le bruit additif et le bruit multiplicatif. Une etude comparative decrite dans la premiere partie permet de mesurer les performances d'algorithmes de filtrage afin de selectionner les filtres les mieux adaptes a chaque type de bruit. Pour cela, des criteres d'evaluation sont definis. La mise en uvre du systeme automatique necessite trois etapes: l'identification de la nature du bruit, l'estimation de son ecart type et le choix de filtres appropries. Deux methodes d'identification de la nature du bruit sont decrites. La premiere calcule des statistiques locales sur les regions les plus homogenes definies a partir des masques de lee. Des parametres dependant de ces statistiques caracterisent la nature additive ou multiplicative du bruit. L'identification du bruit impulsionnel fait appel a un algorithme de filtrage de bruit impulsionnel. La seconde methode n'utilise pas de decoupage a priori. Elle consiste a construire des histogrammes a partir de l'image bruitee, controlee par l'image de labels obtenue par segmentation de l'image observee. La variation d'un parametre extrait de chaque histogramme caracterise la nature du bruit. La procedure d'estimation de l'ecart type du bruit concerne les bruits additifs et multiplicatifs. La methode proposee utilise egalement l'image bruitee segmentee pour creer un histogramme d'ecarts types locaux duquel est estime l'ecart type du bruit. Concernant les filtres, trois algorithmes de filtrage des trois types de bruit retenus sont decrits. Le filtre de bruit impulsionnel propose detecte les pixels bruites puis applique un filtre particulier en fonction de la configuration locale du pixel bruite. Le filtre de bruit additif utilise le principe du filtre de lee pour corriger de maniere recursive et iterative, les pixels de valeur minimale et maximale dans chaque fenetre d'analyse. Le filtre du bruit multiplicatif utilise une adaptation du filtre de bruit additif apres transformation du modele de l'observation en modele additif. Les performances de chaque procedure ou algorithme sont mesurees sur des images degradees artificiellement et sur des images de teledetection
APA, Harvard, Vancouver, ISO, and other styles
13

Khouri, Antoun. "Optimisation et mise en oeuvre d'algorithmes parallèles pour la reconnaissance de la parole." Avignon, 1995. http://www.theses.fr/1995AVIG0110.

Full text
Abstract:
Le but de cette these est de realiser une machine puissante, economique, facile a utiliser, sur laquelle il est possible d'implanter et d'evaluer les modules et sous-modules de calcul de l'algorithme de la rap, dans l'esprit d'une independance maximale avec cet algorithme pour qu'il ne soit pas necessaire de modifier la conception electronique ou architecturale du systeme a chaque modification logicielle apportee. Pour atteindre cet objectif, nous utilisons un reseau de processeurs (transputers) sur lequel nous appliquons notre algorithme parallele. Nous presentons les principes generaux et problemes lies a la rap. Les choix effectues pour la determination des differents niveaux d'action de notre systeme de rap. Puis nous decrivons les modules logiciels du rap et leur fonctionnement. Ensuite, nous presentons l'environnement de travail pour une machine parallele et les outils logiciels qui nous ont permis la mise en oeuvre de notre algorithme et la configuration de notre reseau. Puis, nous presentons les algorithmes paralleles, le parallelisme, et les difficultes de programmation et de mise en application d'un algorithme parallele. Nous abordons ensuite les aspects materiels et les topologies de reseaux parmi lesquelles se portera le choix d'une architecture specifique adaptee a notre application. Nous terminons en faisant le point sur l'application realisee dans le cadre de cette these et sur les performances obtenues
APA, Harvard, Vancouver, ISO, and other styles
14

Vernes, Léa. "Mise au point d’un procédé innovant d’éco-extraction assisté par ultrasons d’ingrédients alimentaires à partir de spiruline et transposition à l’échelle industrielle." Electronic Thesis or Diss., Avignon, 2019. http://www.theses.fr/2019AVIG0273.

Full text
Abstract:
Les microalgues sont l’une des ressources renouvelables les plus prometteuses pouvant constituer une alimentation durable future. Grâce à leur diversité de métabolisme, ces microorganismes sont capables de synthétiser une vaste gamme de composés d’intérêt à haute valeur nutritionnelle. Cependant, leur consommation reste limitée du fait de leurs caractéristiques organoleptiques intrinsèques peu attrayantes. Afin de répondre à cette problématique et de lever les verrous, les travaux de cette thèse ont porté sur la mise au point d’un procédé de production d’ingrédient alimentaire à partir de spiruline.Une méthode verte et innovante faisant intervenir la technologie ultrasonore pour l'extraction de protéines à partir d'Arthrospira platensis a été proposée dans une première partie. Il s’agit de la manothermosonication (MTS). Le recours à un plan d’expérience a permis d’optimiser les paramètres d’extraction ; et une modélisation mathématique ainsi que des investigations microscopiques ont mené à une compréhension des phénomènes de transfert de masse d’une part et des effets structurels des ultrasons sur les filaments de spiruline d’autre part. Selon les résultats expérimentaux, la MTS a permis d'obtenir 229 % de protéines en plus (28,42 ± 1,15 g / 100 g MS) par rapport au procédé classique sans ultrasons (8,63 ± 1,15 g / 100 g MS). Avec 28,42 g de protéines pour 100 g de spiruline dans l'extrait, un taux de récupération des protéines de 50 % a été atteint en 6 minutes effectives avec un procédé MTS continu. Partant de ces résultats prometteurs, des pistes d’extrapolation ont été étudiées afin de proposer des outils d’aide à la décision pour l’industrialisation du procédé. Ainsi une procédure d’analyse des risques (HACCP & HAZOP), une étude de coût ainsi que l’impact environnemental du procédé ont été développés dans une seconde partie de ces travaux. Enfin, des voies de valorisation des co-produits d’extraction ont été présentées dans une approche de bioraffinerie
Microalgae are one of the most promising renewable resource for future sustainable food. Thanks to their diversity of metabolism, these microorganisms can synthesize a wide range of compounds of interest with high nutritional value. However, their consumption remains limited because of their intrinsic organoleptic characteristics unattractive. To tackle this problem and to overcome these barriers, this thesis was focused on the development of a production process of food ingredient from spirulina.A green and innovative method using ultrasonic technology for the extraction of proteins from Arthrospira platensis was proposed in a first part. This is the manothermosonication (MTS). The use of an experimental plan made it possible to optimize extraction parameters; and mathematical modeling and microscopic investigations led to an understanding of the mass transfer phenomena on the one hand, and the structural effects of ultrasound on spirulina filaments on the other hand. According to the experimental results, MTS allowed to obtain 229 % more proteins (28.42 ± 1.15 g / 100 g DW) compared to the conventional method without ultrasound (8.63 ± 1.15 g / 100 g DW). With 28.42 g of protein per 100 g of spirulina in the extract, a protein recovery rate of 50% was achieved in 6 minutes with a continuous MTS process. Based on these promising results, extrapolation tracks have been studied in order to propose decision support tools for process industrialization. Thus, a risk analysis procedure (HACCP & HAZOP), a cost study as well as the environmental impact of the process were developed in a second part of this work. Lastly, ways of exploiting by-products have been presented in a biorefinery approach
APA, Harvard, Vancouver, ISO, and other styles
15

Horn, Odile. "Étude et mise en oeuvre d'un algorithme de poursuite de cible par analyse d'image." Vandoeuvre-les-Nancy, INPL, 1989. http://www.theses.fr/1989NAN10180.

Full text
Abstract:
L'approche développée se compose de 3 parties : un capteur optoélectronique délivrant les contours de la scène en temps réel ; une technique originale de corrélation rapide par restriction déterminent la position du mobile pour chaque acquisition d'image; un filtre Kalman adaptatif calculant la trajectoire de la cible et prédit sa position pour l'étape suivante
APA, Harvard, Vancouver, ISO, and other styles
16

Sabri, Mohamed. "Filtrage et restauration en traitement des images numériques : recherche d'une mise en œuvre automatique." Rennes 1, 1991. http://www.theses.fr/1991REN10027.

Full text
Abstract:
Le problème de restitution d’une scène à partir d’une image numérique dégradée, sans information à priori, pose des difficultés d’ordre théorique et pratique, dues aux bruits sur les données. Ce mémoire présente une contribution à l’automatisation des opérations d’identification des sources de dégradation, de filtrage et de restauration, à partir de l’image observée seule. La modélisation des sources de dégradation par l’étude du mécanisme de formation de l’image d’une part, et la modélisation des images 2-D par des champs stochastiques d’autre part servent de base à l’élaboration d’un outil d’analyse et au développement d’algorithmes de traitement. Des algorithmes de filtrage de bruits, de natures diverses et plus particulièrement les bruits multiplicatifs, ont été étudiés. L’utilisation d’opérateurs locaux nous a permis de tenir compte de l’aspect préservation des contours. Plusieurs méthodes de restauration d’images floues, notamment un filtrage de Kalman 2-D semi-récursifs, ont été prospectées. Une identification du flou basée sur celle d’un processus ARMA, et une estimation de la nature du bruit basée sur la notion d’homogénéité locale sont proposées ; un traitement optimal approprié est ensuite appliqué. Nos résultats sont comparés avec ceux obtenus à partir d’algorithmes connus en traitement d’image.
APA, Harvard, Vancouver, ISO, and other styles
17

Moron, Véronique. "Mise en correspondance de données 3D avec un modèle CAO : application à l'inspection automatique." Lyon, INSA, 1996. http://theses.insa-lyon.fr/publication/1996ISAL0131/these.pdf.

Full text
Abstract:
Ce travail porte sur l'inspection automatique d'objets comportant des surfaces complexes à partir de leur modèle CAO et de données 3D provenant, soit d'un capteur télémétrique, soit d'une machine à mesurer. Nous présentons d'abord un état de l'art complet et récent sur la modélisation 3D. Nous sélectionnons deux modèles surfaciques : un modèle triangulé et un modèle exact NURBS découpées, pour lesquels nous développons un calcul de distance point/modèle. Nous détaillons ensuite comment obtenir les données 3D à partir d'images fournies par un capteur télémétrique. Nous proposons une méthode de mise en correspondance générale entre des données 3D et un modèle CAO, qui a l'avantage d'être robuste (jusqu'à 50% de points parasites), automatique, et qui fonctionne quel que soit la position initiale des données et du modèle. Nous avons exploité plusieurs applications à cette méthode, parmi lesquelles la reconnaissance de formes, mais surtout l'inspection automatique d'objets de forme complexe. Nous présentons une méthode d'inspection de ce type d'objet, d'une part quantitative avec une approche globale et locale, et d'autre part qualitative utilisant différents procédés de visualisation que nous avons développés. A partir de ces outils, un opérateur ou un système robotisé peut rapidement identifier des pièces défectueuses, ou une dérive du procédé de fabrication, sur une ligne de production
This work deals with the automatic inspection of solid based free-form surfaces, using 3D data produced either by a 3D Range sensor or by a Coordinate Measuring Machine. We first introduce a complete state of the art in the 3D modelisation domain. We select two kinds of surface-based models, the first is an interpolated triangulated model, and the other one is an exact NURBS surfaces based model. For each of them, we state the computation of the point/surface entity distance. We present an automatic and robust (up to 50 % of outlier points) general registration method, capable of registering 3D data with a geometric model in any initial state. We apply this method for different applications, like pattern recognition. But mainly for automatic inspection of complex parts. We state an inspection method that produces an inspection report including numerical results concerning global or local tolerance verification. The other outputs are several types of coloured versions of the model indicating the level of discrepancy between the measured points and the model. Using this colouring scheme, an operator or a robotic system can rapidly identify defective parts or monitor process drift on a production line
APA, Harvard, Vancouver, ISO, and other styles
18

Moreau, Aurélien. "Mise en œuvre automatique de processus métier dans le domaine des architectures orientées services." Paris 6, 2009. http://www.theses.fr/2009PA066660.

Full text
Abstract:
Ces deux contributions ont été mises en oeuvre dans un prototype opérationnel offrant un atelier complet de projection de processus métier dans une architecture SOA. Enfin nous rapportons des expériences qui ont été menées pour dépasser le cadre de l'atelier de création statique de composition de services et amener les premières briques de résolution à l'exécution de ces problèmes.
APA, Harvard, Vancouver, ISO, and other styles
19

Helmy, Amr. "Mise en œuvre de techniques de démonstration automatique pour la vérification formelle des NoCs." Grenoble INPG, 2010. http://www.theses.fr/2010INPG0035.

Full text
Abstract:
Les technologies actuelles permettent l'intégration sur une même puce de systèmes complexes (SoCs) qui sont composés de blocs préconçus (IPs) pouvant être interconnectés grâce à un réseau sur la puce (NoCs). De manière générale, les IPs sont validés par diverses techniques (simulation, test, vérification formelle) et le problème majeur reste la validation des infrastructures des communications. Cette thèse se concentre sur la vérification formelle des réseaux sur puce à l'aide d'un outil de preuve automatique, le démonstrateur de théorèmes ACL2. Un méta-modèle pour les réseaux sur puce a été développé et implémenté dans ACL2. Il satisfait des propriétés de correction générique, conséquences logiques d'un ensemble d'obligations de preuve sur les constituants principaux du réseau (topologie, routage, technique de commutation,. . . ). La preuve de correction pour une instance spécifique de réseau sur puce est alors réduite à la vérification de ces obligations de preuve. Cette thèse poursuit les travaux entrepris dans ce domaine en étendant ce méta-modèle dans plusieurs directions : prise en compte plus fine de la modélisation temporelle, du contrôle de flux, des mécanismes de priorités,. . . Les résultats sont démontrés sur plusieurs réseaux actuels : Hermes (Université fédérale du Rio Grande do Sul, Brésil et LIRMM) et Nostrum (Royal Institute Of Technology, Suéde)
The current technology allows the integration on a single die of complex systems-on-chip (SoC's) composed of manufactured blocks (IP's) that can be interconnected through specialized networks-on-chip (NoCs). IP's have usually been validated by diverse techniques (simulation, test, formal verification) and the key problem remains the validation of the communication infrastructure. This thesis addresses the formal verification of NoCs by means of a mechanized proof tool, the ACL2 theorem prover. A meta-model for NoCs has been developed and implemented in ACL2. It satisfies generic correctness statements, which are logical consequences of a set of proof obligations for each one of the NoC constituents (topology, routing, switching technique,. . . ). Thus the verification of a particular NoC instance is reduced to discharging this set of proof obligations. The purpose of this thesis is to extend this meta-model in several directions: more accurate timing modeling, flow control, priority mechanisms,. . . The methodology is demonstrated on realistic and state-of-the-art NoC designs: Spidergon (STMicroelectronics), Hermes (The Federal University of Rio Grande do Sul, Brazil, and LIRMM) , and Nostrum (Royal Institute Of Technology, Sweden)
APA, Harvard, Vancouver, ISO, and other styles
20

Moron, Véronique Redarce Tanneguy Boulanger Pierre. "Mise en correspondance de données 3D avec un modèle CAO application à l'inspection automatique /." Villeurbanne : Doc'INSA, 2001. http://docinsa.insa-lyon.fr/these/pont.php?id=moron.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Perraud, Veronique. "Mise au point d'un préleveur automatique pour la mesure en continu des composés carbonylés atmosphériques." Phd thesis, Université de Provence - Aix-Marseille I, 2007. http://tel.archives-ouvertes.fr/tel-00346977.

Full text
Abstract:
Deux stratégies analytiques ont été explorées en vue d'élaborer un préleveur automatique pour la mesure en continu des composés carbonylés atmosphériques. Parce que très spécifique envers les composés carbonylés, le prélèvement par transfert de la phase gazeuse échantillonnée dans un liquide couplé à une dérivation chimique des composés collectés a été d'abord étudiée Cependant, cette stratégie a induit un piégeage non quantitatif de certains composés d'intérêt et/ou une utilisation en continu sur site délicate. Pour palier les difficultés rencontrées, une seconde stratégie a été envisagée : l'adsorption à froid sur un support solide suivie d'une thermodesorption couplée à une analyse directe par GC/MS a été envisagée et expérimentée. Une efficacité de piégeage supérieure à 95% a été observée pour les composés carbonylés composés de 1 à 7 carbones sur différent support solide testés. Ces résultats encourageant constituent une première étape du développement fructueuse.
APA, Harvard, Vancouver, ISO, and other styles
22

Perraud, Véronique. "Mise au point d’un préleveur automatique pour la mesure en continu des composés carbonylés atmosphériques." Aix-Marseille 1, 2007. http://theses.univ-amu.fr.lama.univ-amu.fr/2007AIX11058.pdf.

Full text
Abstract:
En raison de leur implication dans les processus photochimiques responsables de la formation de l’ozone troposphérique et de leur impact sur la santé humaine, les composés carbonylés font partis des composés organiques volatiles dont il est important de suivre en continu leur concentration atmophérique (fluctuation rapide de leur concentration dans l’atmosphère). Ce présent travail de thèse répond à cette demande et deux stratégies de prélèvement ont été explorées dans l’optique de disposer d’un instrument automatique de mesure en continu des composés carbonylés atmosphériques. Dans un premier temps, le prélèvement par transfert de la phase gazeuse échantillonnée dans une phase liquide associé à une dérivation chimique des composés piégés a été étudié en raison de sa grande spécificité envers les composés carbonylés. Cependant aucun couple « dispositif de prélèvement en phase liquide – réactifs de dérivation » ne permet un piégage quantitatif et/ou une utilisation en continu sur site. Une seconde stratégie, courrament employée dans le prélèvement des composés organiques volatiles (COV) a été étudiée : l’adsorption à froid sur un support solide suivie d’une thermodesorption couplée à une analyse directe par GC/MS. L’efficacité de piégeage des composés carbonylés sur différents adsorbants solides s’est révelée superieure à 95% pour les composés carbonylés composés de 1 (formaldéhyde, Pvap(-30°C) = 34400 Pa) à 7 carbones (benzaldéhyde, Pvap(-30°C) = 0,75 Pa). Fort de ces résultats, ce travail constitue une première étape fructueuse vers l’élaboration d’un instrument automatique pour la mesure en continu des composés carbonylés atmosphériques
Because of their implication in photochemical processes leadind to the formation of tropospheric ozone and their negative effect on human health, carbonyl compounds are part of the volatile organic compounds which demand a continuous measurement of their atmospheric concentration (fast fluctuation of their atmospheric concentration). The present research meets this requirement and two sampling strategies were studied to have an automatic instrument for the continuous measurement of atmospheric carbonyl compounds. First, sampling by using a tranfer of gaseous phase in a liquid phase associated with a simultaneous chemical derivatization of the trapped compounds was studied because of its high specificity towards carbonyl compounds. However, no couple “sampling device-reagent” allows a quantitative sampling of carbonyl compounds, nor a continuous measurement in the field. Another strategy was therefore studied: cryogenic adsorption onto solid adsorbent followed by thermodesorption and analysis by GC/MS. Collection efficiency using different solid adsorbents was greater than 95% for carbonyl compounds consisting of 1 (formaldehyde, Pvap (-30°C) = 34400Pa) to 7 carbons (benzaldehyde, Pvap (-30°C) = 0,75 Pa). This sampling strategy is a successful first step towards the realization of the automatic sampling device for a continuous measurement of atmospheric carbonyls compounds
APA, Harvard, Vancouver, ISO, and other styles
23

Kirman, Jerome. "Mise au point d'un formalisme syntaxique de haut niveau pour le traitement automatique des langues." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0330/document.

Full text
Abstract:
La linguistique informatique a pour objet de construire un modèle formel des connaissances linguistiques, et d’en tirer des algorithmes permettant le traitement automatique des langues. Pour ce faire, elle s’appuie fréquemment sur des grammaires dites génératives, construisant des phrases valides par l’application successive de règles de réécriture. Une approche alternative, basée sur la théorie des modèles, vise à décrire la grammaticalité comme une conjonction de contraintes de bonne formation, en s’appuyant sur des liens profonds entre logique et automates pour produire des analyseurs efficaces. Notre travail se situe dans ce dernier cadre. En s’appuyant sur plusieurs résultats existants en informatique théorique, nous proposons un outil de modélisation linguistique expressif, conçu pour faciliter l’ingénierie grammaticale. Celui-ci considère dans un premier temps la structure abstraite des énoncés, et fournit un langage logique s’appuyant sur les propriétés lexicales des mots pour caractériser avec concision l’ensemble des phrases grammaticalement correctes. Puis, dans un second temps, le lien entre ces structures abstraites et leurs représentations concrètes (en syntaxe et en sémantique) est établi par le biais de règles de linéarisation qui exploitent la logique et le lambda-calcul. Par suite, afin de valider cette approche, nous proposons un ensemble de modélisations portant sur des phénomènes linguistiques divers, avec un intérêt particulier pour le traitement des langages présentant des phénomènes d’ordre libre (c’est-à-dire qui autorisent la permutation de certains mots ou groupes de mots dans une phrase sans affecter sa signification), ainsi que pour leur complexité algorithmique
The goal of computational linguistics is to provide a formal account linguistical knowledge, and to produce algorithmic tools for natural languageprocessing. Often, this is done in a so-called generative framework, where grammars describe sets of valid sentences by iteratively applying some set of rewrite rules. Another approach, based on model theory, describes instead grammaticality as a set of well-formedness logical constraints, relying on deep links between logic and automata in order to produce efficient parsers. This thesis favors the latter approach. Making use of several existing results in theoretical computer science, we propose a tool for linguistical description that is both expressive and designed to facilitate grammar engineering. It first tackles the abstract structure of sentences, providing a logical language based on lexical properties of words in order to concisely describe the set of grammaticaly valid sentences. It then draws the link between these abstract structures and their representations (both in syntax and semantics), through the use of linearization rules that rely on logic and lambda-calculus. Then in order to validate this proposal, we use it to model various linguistic phenomenas, ending with a specific focus on languages that include free word order phenomenas (that is, sentences which allow the free reordering of some of their words or syntagmas while keeping their meaning), and on their algorithmic complexity
APA, Harvard, Vancouver, ISO, and other styles
24

Robert, Vincent Laprie Yves Bonneau Anne. "Modélisation de la coarticulation labiale mise en oeuvre sur une tête parlante /." S. l. : Nancy 1, 2008. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2008_0077_ROBERT.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Azagoh, Christiane. "Contribution à l’émergence d’une filière insecte : mise au point d’un procédé de production de farine à l’échelle pilote et caractérisation de la fraction protéique." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLA018.

Full text
Abstract:
Dans le contexte de pénurie des ressources, croissance démographique, dégradation de l’environnement, la production d’aliments riches en protéines (en particulier) pour l’homme et les animaux devrait augmenter pour répondre à la demande. De nouvelles ressources sont actuellement explorées : légumineuses, algues, insectes... Ces derniers représentent une source de protéines plus durable comparée aux sources conventionnelles. Bien qu’ils soient consommés par de nombreuses populations en Asie, en Afrique et en Amérique du Sud, ce n’est pas le cas en Europe. Ainsi, pour faciliter leur utilisation dans l’alimentation européenne, les insectes peuvent être transformés en ingrédients afin de les incorporer dans des formulations d’aliments. Cependant, il existe très peu de données sur les méthodes de transformation à l’échelle pilote ou industrielle et sur l’impact du procédé sur la qualité des produits finis. Ce travail avait pour objectifs de mettre au point à l’échelle pilote un procédé de production de farine d’insecte pour l’alimentation, de caractériser cette farine et les autres produits obtenus, de caractériser les propriétés de la fraction protéique soluble et d’étudier l’impact du procédé sur les propriétés de celle-ci. Le Tenebrio molitor, candidat à l’élevage industriel, a été sélectionné pour cette étude. Un procédé thermomécanique de production de farine a été mis au point à l’échelle pilote. Il a permis la production d’une farine d’insecte riche en protéines de 72% (bs) avec 14% (bs) de lipides et 4% (bh) d’eau. Le profil en acides aminés des protéines de cette farine répond aux besoins de la nutrition animale et de l’alimentation humaine avec une bonne efficacité protéique (estimée à 2,5). Le rendement de la production de 20% (bh) (64% bs) est semblable à celui de la production de farine de poisson (20% bh). Parallèlement, l’huile d’insecte, principale coproduit a également été produite. Elle est riche en acides palmitiques, et en acides gras essentiels ω9 et ω6. Elle peut être utilisée en alimentation ou dans d’autres domaines. Bien que le procédé ait un impact sur les propriétés physicochimiques des protéines solubles après la transformation des larves en farine, les fractions protéiques solubles de la farine et des larves ont les mêmes propriétés moussantes et émulsifiantes semblables à celles du lait et de ASB à 4 et 2% respectivement. Les protéines de la farine ou des larves peuvent être également utilisées pour leurs propriétés fonctionnelles. Ce travail contribue à la compréhension des protéines d’insectes et à l’extrapolation industrielle dans une perspective de conception de la bioraffinerie
In the context of resource scarcity, population growth, environmental degradation, and food supplies dependency, the production of protein-rich feed and food should increase in order to meet the demand. New resources are currently being explored as vegetal, algae, insects... This last one is environmentally friendly and represents a more sustainable protein source as compared to conventional livestock farming. Although insects are consumed by a lot of people in Asia, Africa and South-America, this is not the case in Europe. In order to meet European consumers' preferences, they need to be processed or transformed into ingredients to become a part of formulation products (i.e. powders). However, very little knowledge regarding processing methods at a pilot or industrial scale, and the composition and impact of process on the properties of insect-based ingredient exists and is available. The aim of this work was to design a process for the production of meal rich in proteins from insect at a pilot scale, to characterize it for feed and food applications, to characterize the properties of its soluble proteins, and to study the impact of the process on these properties. The Tenebrio molitor, candidate for rearing at an industrial scale, was chosen in the frame of this study. A thermo-mechanical process was designed at a pilot scale. It allowed the production of a protein-rich insect meal of 72% (bs) with 14% (bs) of lipids and 4% (bh) of water. The amino acid profile of this meal proteins meets the needs of animal nutrition and human nutrition with good protein efficiency (estimated at 2.5). The production yield of 20% (bh) (64% bs) is similar to that of fishmeal production (20% bh). In parallel, insect oil (co-product) were also produced. It is rich in acid palmitic, and essential fatty acids ω9 and ω6. It can be used in feed, food, cosmetic or bioenergy. Although the process has an impact on the physicochemical properties of soluble proteins after the transformation of larvae into flour, the soluble protein fractions of flour and of larvae have the same foaming and emulsifying properties similar to those of milk and BSA at 4 and 2% respectively. The meal proteins could be used in feed and food for their functional properties. This work contributes to insect protein understanding and the industrial extrapolation in a perspective of biorefinery designing
APA, Harvard, Vancouver, ISO, and other styles
26

Fréalle, Noémie. "Formation à la gestion de crise à l’échelle communale : méthode d’élaboration et de mise en œuvre de scénarios de crise crédibles, pédagogiques et interactifs." Thesis, Lyon, 2018. https://tel.archives-ouvertes.fr/tel-01860781.

Full text
Abstract:
Gérer une crise ne s’improvise pas, d’autant plus lorsque les enjeux sont importants. Pour faire face aux conséquences souvent dramatiques de telles situations, il est recommandé aux membres des cellules de crise de se former. Pour cela, la simulation de crise semble être un outil idéal, car elle permet de former un groupe et de procurer une expérience de gestion de crise aux apprenants. Cependant, il semble que la crédibilité, la portée pédagogique et l’interactivité des scénarios déployés dans ces simulations soient remises en cause. Les travaux de thèse s’attachent à améliorer l’élaboration et la mise en œuvre des scénarios de crise lors de simulations à l’échelle communale. Pour atteindre cet objectif, quatre éléments sont étudiés : les processus de gestion de crise, les concepts pédagogiques, les scénarios utilisés en formation à la gestion de crise et les serious games. Cela permet de définir qu’il est nécessaire d’améliorer les dispositifs d’animation pour mettre en œuvre des scénarios plus crédibles, pédagogiques et interactifs. La méthode, basée sur une démarche empirique grâce à la mise en œuvre de 21 exercices pilotes impliquant 280 apprenants, est structurée en quatre étapes : (i)la définition des paramètres de l’animation, (ii) la caractérisation des données nécessaires aux animateurs, (iii) la modélisation de la circulation de l’information au sein de l’animation et (iv) la structuration d’un support partagé d’animation. Le cadre et le protocole expérimentaux permettent d’analyser les premiers résultats pour confirmer l’intérêt de la méthode dans un contexte de formation à la gestion de crise
Crisis management cannot be improvised, especially when the stakes are high. To cope with the consequences of crisis, it is recommended that members of crisis units be trained. In order to train them, the crisis simulation seems to be an ideal tool, because it enables to train a whole group and to provide a crisis management experience to the trainees. However, it seems that the credibility, the educational scope and the interactivity of the scenarios deployed in these simulations are called into question. The research work endeavor to improve the development and the implementation of crisis scenarios during simulation at town level. To achieve this objective, four elements are studied: crisis management processes, educational concepts, scenarios used in current crisis management training and serious games. This allows to define that it necessary to improve the execution devices to implement more credible, educational and interactive scenarios. The proposed method, based on an empirical approach through the implementation of 21 pilot exercises involving 280 trainees, is structured into four steps: (i) the definition of the execution parameters, (ii) the characterization of the data needed by the facilitators, (iii) the modelling of the circulation of information between the facilitators and (iv) the structuring of a shared medium for facilitators. The experimental framework and protocol allow to analyze the first results to confirm the interest of the method in a crisis management training context
APA, Harvard, Vancouver, ISO, and other styles
27

Jaccarini, André. "Grammaires modulaires de l'arabe : modélisations, mise en oeuvre informatique et stratégies." Paris 4, 1997. http://www.theses.fr/1997PA040025.

Full text
Abstract:
Dans cette thèse nous exposons dans un cadre théorique unifie les principaux modèles linguistiques et les analyseurs associes que nous avons développés au DATAT (département d'analyse et de traitement automatique des textes, IREMAN-CNRS). Ces analyseurs ont la particularité de pouvoir fonctionner sans lexique, ce qui ne signifie pas que l'on s'interdise par la suite toute interaction avec un lexique donné. On proposera donc des analyseurs modulables dont l'intérêt sera de mettre en évidence la régularité du système morphologique de base de l'arabe. Ces analyseurs seront couplés à un moniteur syntaxique dont le rôle sera d'optimiser l'analyse morphologique et de réduire la part d'ambiguïté propre au système d'écriture de l'arabe. Afin d'affiner les descriptions linguistiques on a conçu des programmes modulaires que l'on peut modifier au fur et à mesure que se "complexifient" les données linguistiques. Une technique d'expérimentation et une méthode d'évaluation des grammaires sont proposées. Les applications les plus importantes sont le controle orthographique, la vocalisation automatique et la hiérarchisation des ambiguïtés. Ce logiciel doit surtout être compris comme un outil d'ingénierie linguistique permettant de mettre en œuvre la méthode de variation de grammaire en vue de la détermination de l'algorithme optimum. La reconnaissance optique des caractères ou la reconnaissance vocale supposent par exemple la mise au point de modules de vérification linguistiques compacts dont notre méthode permettra de calculer la grammaire sous-jacente
In this work we expound, in a unified theoretical frame, the main linguistic models and the associated parsers we have developed in the D. A. T. A. T (département d'analyse et de traitement automatique des textes, IREMAN-CNRS). The most salient feature of these parsers is that they can work without a lexicon but can be enhanced by the introduction of selective lexicons. Our aim is then to design a syntactic monitor for the morphological program in order to reduce different ambiguities which are inherent to Arabic writing systems. In order to achieve accurate descriptions we have designed modular programs that we can modify according to the "complexification" of linguistic data and an evaluation method for grammar. The already existing morphological parser without a lexicon can be applied to non-vocalized as well as vocalized Arabic texts in order to extract roots, to vocalize partially automatically and hierarchize ambiguities. In this sense this parser constitutes a powerful tool for research in linguistic engineering itself: the method of grammar variations will allow the design of compact modular grammars applicable to various needs and research areas. Our aim is to create a generator for linguistic applications rather than the mere applications themselves. For example optical character recognition (OCR) and speech processing require compact linguistic modules of verification. The use of enormous lexicons may be a handicap in some computational configurations. Our method allows the calculation of the optimum grammar
APA, Harvard, Vancouver, ISO, and other styles
28

Schenone, Carlo. "Représentation des connaissances pour la mise a jour automatique des systèmes d'information géographique par photos aériennes." Lyon, INSA, 1994. http://www.theses.fr/1994ISAL0108.

Full text
Abstract:
Ce mémoire se situe dans le cadre du projet Photopolis pour la mise à jour des Systèmes d'Information Géographiques (SIG) à l'aide de photos aériennes. Ce processus est effectué par la découverte des lieux où les vérifications révèlent des modifications par rapport à l'état mémorisé antérieurement. Le système travaille en différentes étapes. La première étape normalise la photo en enlevant les distorsions optiques. Les photos sont divisées en morceaux homogènes dépendant de leur texture. Un processus divise ces morceaux en plusieurs parties qui appartiennent à différents objets géographiques, qu'on appellera "clips". ·Chaque clip est reconnu en utilisant un système de diagnostic qui se sert d'une base de connaissances spécialisée dans la reconnaissance des textures des photos aériennes et qui est écrit avec un langage très facile à utiliser. Le système de diagnostic est préparé avec un langage qui utilise le paradigme des questionnaires-diagnostics. Dans un diagnostic, l'expert du domaine pose des questions au monde extérieur ou à lui même, afin de trouver une solution. En général, l'expert effectue une demande en attendant une réponse d'un ensemble de solutions possibles ou intervalles de valeurs. Ainsi, peut-il arriver à une solution partielle par déductions effectuées à partir des données connues. Dès lors le langage peut gérer une connaissance partielle et incertaine avec une approche issue des logiques à trois valeurs et des logiques temporelles. Enfin, la solution est la combinaison des réponses à la question initialement posée ainsi qu'à celles posées pour préciser davantage la réponse. Ainsi, suite aux confrontations géométriques et des textures, la mise à jour de la base de données urbaines peut être effectuée
This text has been prepared within the Photopolis project whose goal is the updating of Geographical Information Systems (GIS) using aerial photos. This process is done for discovering places where a verification shows modifications regarding its previous state. The system follows different steps. The first one normalises the aerial photos by eliminating optical distortions. The photos are divided into homogeneous parts depending on their texture. Another process will
APA, Harvard, Vancouver, ISO, and other styles
29

Barbe, Thierry. "Méthodologie et outils pour la mise en oeuvre automatique d'une synthèse de parole de haute qualité." Grenoble INPG, 1990. http://www.theses.fr/1990INPG0147.

Full text
Abstract:
Pour mettre en uvre un systeme de synthese de parole de haute qualite par unites stockees, nous proposons une methodologie basee sur un modele d'emergence phonetique et applicable a l'analyse automatique de grands corpus de signaux de parole naturelle. L'emergence phonetique est obtenue par un modele de decomposition temporelle et permet de positionner des marqueurs de centre, de noyau et de frontiere pour chacun des phonemes. Avec les resultats supplementaires fournis par un algorithme de mesure de la frequence fondamentale, nous obtenons des fichiers prosodiques contenant les informations prosodiques necessaires a la constitution de bases de donnees prosodiques et a la creation de dictionnaire d'unites en vue de la synthese. Ces informations sont necessaires et suffisantes pour un controle prosodique precis du message de synthese. Afin d'offrir plusieurs options de synthese, nous avons realise un systeme pouvant utiliser soit des techniques psola de deformation d'originaux (td-psola ou lp-psola), soit un modele lf du signal glottique. Nous avons pour cela mis au point des outils d'analyse tels qu'un detecteur de frequence fondamentale par amdf et un algorithme de marquage de periodes utilisant une technique de reduction de donnees. Les resultats ont ete evalues par comparaison avec les resultats obtenus sur le signal laryngographique. Un algorithme d'extraction de formants par analyse lpc pitch-synchrone a egalement ete realise et permet d'evaluer les parametres du conduit vocal, d'extraire le signal glottique par filtrage inverse et de determiner les parametres du modele lf. Finalement, le systeme de synthese realise permet de modifier des signaux de parole originaux ou de creer des phrases de synthese a vocabulaire illimite au moyen d'un dictionnaire de polysons de 2000 unites environ
APA, Harvard, Vancouver, ISO, and other styles
30

Amoretti, René. "Modélisation et commande optimale d'un réseau de distribution d'eau potable : mise en oeuvre, test et étude des performances sur le réseau de Fium'Orbo." Aix-Marseille 3, 1990. http://www.theses.fr/1990AIX30001.

Full text
Abstract:
Dans le monde industrialise, les besoins en eau sont en forte croissance. Ces accroissements, ainsi que l'amelioration de la qualite exigee par les consommateurs entrainent pour le distributeur la necessite de maitriser des ouvrages de plus en plus complexes et aussi de contenir ses couts d'exploitation dans une limite compatible avec les contraintes financieres des collectivites. Ce memoire presente. D'une part part une description de la problematique liee au sujet et notamment: la modelisation d'un reseau de representation generale des adductions d'eau par pompage, son observabilite, sa commandabilite; l'estimation des variables non controlees (consommations, ressources gravitaires); l'optimisation en regard du critere cout et du respect des contraintes de hauteurs d'eau dans les reservoirs. D'autre part les enseignements tires de la mise en uvre de la strategie elaboree sur le reseau du syndicat inter-communal du fium'orbo en haute-corse qui revelent que les principales difficultes liees a la maitrise des systemes de distribution se situaient au niveau de la mesure des variables physiques essentielles
APA, Harvard, Vancouver, ISO, and other styles
31

Cano, Emmanuelle. "Cartographie des formations végétales naturelles à l’échelle régionale par classification de séries temporelles d’images satellitaires." Thesis, Rennes 2, 2016. http://www.theses.fr/2016REN20024/document.

Full text
Abstract:
La cartographie du couvert végétal est un outil essentiel au suivi et à la gestion et des milieux « naturels ». Des cartes caractérisant les essences forestières à l'échelle régionale sont nécessaires pour la gestion des milieux forestiers. Les séries temporelles d'images satellitaires optiques à moyenne résolution spatiale, peuvent permettre de satisfaire ce besoin. L'objectif de cette thèse est d'améliorer la classification supervisée d'une série temporelle afin de produire des cartes à l'échelle régionale détaillant la composition en essences de la végétation forestière. Nous avons d'abord évalué l'apport de la stratification du site d'étude pour améliorer les résultats de la classification d'une série temporelle d'images MODIS. Le recours à une stratification à partir d'une segmentation orientée objet améliore la classification supervisée, avec une augmentation de la valeur de Kappa et du taux de rejet des pixels à classer. Un seuil minimal et un seuil maximal de la surface de végétation à classer ont été identifiés, correspondant respectivement à un taux de rejet trop élevé et à une absence d'effet de la stratification. Nous avons ensuite évalué l'influence de l'organisation de la série temporelle d'images à moyenne résolution spatiale et du choix de l'algorithme de classification. Cette évaluation a été effectuée pour trois algorithmes (maximum de vraisemblance, Support Vector Machine, Random Forest) en faisant varier les caractéristiques de la série temporelle. On observe un effet de la temporalité et de la radiométrie sur la précision de la classification particulièrement significatif et la supériorité de l'algorithme Random Forest. Sur le plan thématique, des confusions subsistent et certains mélanges d'essences sont mal distingués. Nous avons alors cherché à évaluer l'apport du changement de résolution spatiale des images composant la série temporelle pour améliorer les résultats de classification. Les conclusions effectuées précédemment avec les données MODIS sont confortées, ce qui permet de conclure qu'elles sont indépendantes des données d'entrée et de leur résolution spatiale. Une amélioration significative est apportée par le changement de résolution spatiale, avec une augmentation de l'indice de Kappa de 0,60 à 0,72 obtenue grâce à la diminution de la proportion de pixels mixtes. Quelle que soit la résolution spatiale des images utilisées, les résultats obtenus montrent que la définition d'une procédure optimale améliore sensiblement les résultats de la classification
Forest cover mapping is an essential tool for forest management. Detailed maps, characterizing forest types at a régional scale, are needed. This need can be fulfilled by médium spatial resolution optical satellite images time sériés. This thesis aims at improving the supervised classification procédure applied to a time sériés, to produce maps detailing forest types at a régional scale. To meet this goal, the improvement of the results obtained by the classification of a MODIS time sériés, performed with a stratification of the study area, was assessed. An improvement of classification accuracy due to stratification built by object-based image analysis was observed, with an increase of the Kappa index value and an increase of the reject fraction rate. These two phenomena are correlated to the classified végétation area. A minimal and a maximal value were identified, respectively related to a too high reject fraction rate and a neutral stratification impact.We carried out a second study, aiming at assessing the influence of the médium spatial resolution time sériés organization and of the algorithm on classification quality. Three distinct classification algorithms (maximum likelihood, Support Vector Machine, Random Forest) and several time sériés were studied. A significant improvement due to temporal and radiométrie effects and the superiority of Random Forest were highlighted by the results. Thematic confusions and low user's and producer's accuracies were still observed for several classes. We finally studied the improvement brought by a spatial resolution change for the images composing the time sériés to discriminate classes of mixed forest species. The conclusions of the former study (MODIS images) were confirmed with DEIMOS images. We can conclude that these effects are independent from input data and their spatial resolution. A significant improvement was also observed with an increase of the Kappa index value from 0,60 with MODIS data to 0,72 with DEIMOS data, due to a decrease of the mixed pixels rate
APA, Harvard, Vancouver, ISO, and other styles
32

Ghorayeb, Hicham. "Conception et mise en œuvre d'algorithmes de vision temps-réel pour la vidéo surveillance intelligente." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00003064.

Full text
Abstract:
Notre objectif est d'étudier les algorithmes de vision utilisés aux différents niveaux dans une chaîne de traitement vidéo intelligente. On a prototypé une chaîne de traitement générique dédiée à l'analyse du contenu du flux vidéo. En se basant sur cette chaîne de traitement, on a développé une application de détection et de suivi de piétons. Cette application est une partie intégrante du projet PUVAME. Cette chaîne de traitement générique est composée de plusieurs étapes: détection, classification et suivi d'objets. D'autres étapes de plus haut niveau sont envisagées comme la reconnaissance d'actions, l'identification, la description sémantique ainsi que la fusion des données de plusieurs caméras. On s'est intéressé aux deux premières étapes. On a exploré des algorithmes de segmentation du fond dans un flux vidéo avec caméra fixe. On a implémenté et comparé des algorithmes basés sur la modélisation adaptative du fond. On a aussi exploré la détection visuelle d'objets basée sur l'apprentissage automatique en utilisant la technique du boosting. Cependant, On a développé une librairie intitulée LibAdaBoost qui servira comme un environnement de prototypage d'algorithmes d'apprentissage automatique. On a prototypé la technique du boosting au sein de cette librairie. On a distribué LibAdaBoost sous la licence LGPL. Cette librairie est unique avec les fonctionnalités qu'elle offre. On a exploré l'utilisation des cartes graphiques pour l'accélération des algorithmes de vision. On a effectué le portage du détecteur visuel d'objets basé sur un classifieur généré par le boosting pour qu'il s'exécute sur le processeur graphique. On était les premiers à effectuer ce portage. On a trouvé que l'architecture du processeur graphique est la mieux adaptée pour ce genre d'algorithmes. La chaîne de traitement a été implémentée et intégrée à l'environnement RTMaps. On a évalué ces algorithmes sur des scénarios bien définis. Ces scénarios ont été définis dans le cadre de PUVAME.
APA, Harvard, Vancouver, ISO, and other styles
33

Andry, François. "Mise en œuvre de prédictions linguistiques dans un système de dialogue oral Homme-machine coopératif." Paris 13, 1992. http://www.theses.fr/1992PA132019.

Full text
Abstract:
Un moyen d'améliorer les performances et l'ergonomie des systèmes de dialogue oral est d'essayer de prédire le contenu du prochain énoncé de l'utilisateur. Dans cette thèse, nous décrivons une méthode originale basée sur deux mécanismes indépendants et complémentaires de prédictions, qui sont mis en œuvre dans le système de dialogue oral sundial. Nous utilisons pour ce faire des informations fournies par le gestionnaire de dialogue. Ces informations comportent un contenu intentionnel (liste d'actes de dialogue), et un contenu propositionnel (types sémantiques associes a la tache a réaliser). Le mécanisme de prédictions statiques correspond à la reconnaissance d'états caractéristiques du dialogue et de la résolution de la tâche à partir des prédictions dialogiques. La reconnaissance d'un état particulier permet d'activer un sous lexique et une grammaire de paires de mots particuliers. Ces modèles de langage ont été construits par avance à partir d'un corpus. Le mécanisme de prédictions dynamiques est base sur deux types d'épreuves appliquées aux hypothèses produites par l'analyse linguistique du système. Dans le premier type d'épreuve (sémantique), le focus et ses possibles glissements sont déterminés à partir du contenu propositionnel des prédictions dialogiques et sont comparées aux hypothèses. Le second type d'épreuve (dialogique) correspond au repérage des marqueurs dialogiques sur la forme de surface des hypothèses. L'hypothèse qui est choisie en final est celle qui obtient le meilleur score aux deux types d'épreuves. Des tests montrent une amélioration très nette du taux de compréhension des phrases par le système de dialogue lorsqu'il utilise ces deux mécanismes.
APA, Harvard, Vancouver, ISO, and other styles
34

Tugui, Catalin Adrian. "Mise en place d'une démarche de conception pour circuits hautes performances basée sur des méthodes d'optimisation automatique." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00789352.

Full text
Abstract:
Ce travail de thèse porte sur le développement d'une méthodologie efficace pour la conception analogique, des algorithmes et des outils correspondants qui peuvent être utilisés dans la conception dynamique de fonctions linéaires à temps continu. L'objectif principal est d'assurer que les performances pour un système complet peuvent être rapidement investiguées, mais avec une précision comparable aux évaluations au niveau transistor.Une première direction de recherche a impliqué le développement de la méthodologie de conception basée sur le processus d'optimisation automatique de cellules au niveau transistor et la synthèse de macro-modèles analogiques de haut niveau dans certains environnements comme Mathworks - Simulink, VHDL-AMS ou Verilog-A. Le processus d'extraction des macro-modèles se base sur un ensemble complet d'analyses (DC, AC, transitoire, paramétrique, Balance Harmonique) qui sont effectuées sur les schémas analogiques conçues à partir d'une technologie spécifique. Ensuite, l'extraction et le calcul d'une multitude de facteurs de mérite assure que les modèles comprennent les caractéristiques de bas niveau et peuvent être directement régénéré au cours de l'optimisation.L'algorithme d'optimisation utilise une méthode bayésienne, où l'espace d'évaluation est créé à partir d'un modèle de substitution (krigeage dans ce cas), et la sélection est effectuée en utilisant le critère d'amélioration (Expected Improvement - EI) sujet à des contraintes. Un outil de conception a été développé (SIMECT), qui a été intégré comme une boîte à outils Matlab, employant les algorithmes d'extraction des macro-modèles et d'optimisation automatique.
APA, Harvard, Vancouver, ISO, and other styles
35

Leblond, Isabelle. "Recalage à long terme d'images sonar par mise en correspondance de cartes de classification automatique des fonds." Brest, 2006. http://www.theses.fr/2006BRES2004.

Full text
Abstract:
Ce travail montre la possibilité d'utiliser des images issues d'un sonar latéral pour se repérer sur le fond marin. Nous prenons l'hypothèse que l'on évolue dans un environnement précédemment cartographié et par rapport auquel on va se repérer. La zone de recherche est de la centaine de mètre ou plus et les images peuvent avoir été acquises sous des caps différents. Nous décidons d'opérer en deux temps : extraction de données symboliques nommés "amers" puis appariements. Préalablement, nous présentons les différentes données. Une attention particulière est portée sur la physique des fonds marins, afin d'appréhender les divers types d'amers utilisables. Nous présentons également la problématique du recalage sonar, en terme de difficultés et de solutions proposées pour les résoudre. Une deuxième partie est consacrée au prétraitement des données : correction de la TVG par une normalisation en fonction de l'angle et de despecklelisation par un seuillage de décompositions en ondelettes. L'étape d'extraction des amers est réalisée par une classification/segmentation des données. Les amers sont constitués par des zones contenant les diverses classes de fonds marins et leurs frontières. Nous montrons l'intérêt d'utiliser des paramètres classifiant issus d'une décomposition par ondelettes de Gabor et de réaliser la classification par le plus proche voisin en plusieurs étapes. La dernière phase est celle du recalage, effectuée en deux niveaux principaux. Le premier est un recalage symbolique, où les résultats de la classification sont appariés de manière de plus en plus fine. Le deuxième est un recalage quantitatif, où des données issues directement des images sonar sont associées
This study deals with sea-floor localization problem by using sidescan sonar images. Here, we assume that the considered seafloor areas have previously been mapped. The size of each considered seafloor area is over a hundred square metres and the images can be recorded with different courses. A direct matching of theses images is obviously unacceptable. Therefore, we consider a two step method : extraction of symbolic data named “landmarks” and a matching process. Before these two steps, we begin by presenting the different data. We particularly focus on the physics of the seafloor, in order to grasp the different types of usable landmarks. We present also the problematic of sonar registration, both in terms of difficulties and proposed solutions to solve them. A second part is devoted to the preprocessing of the data : correction of the TVG (Time Varying Gain) by a normalization of the images according to the grazing angle and the despecklelisation by thresholding on wavelet decomposition. Concerning the landmark extraction, we apply a segmentation/classification of the data. Classifying parameters extracted from a Gabor wavelet decomposition are used to realize a classification by the nearest neighbour in several stages. The obtained landmarks contain different kinds of seafloor and their boundaries. The registration is achieved using mainly two steps. The first step is a symbolic registration, where the classification results are matched more an more accurately. The second one is a quantitative registration, where data, extracted directly from images, are matched
APA, Harvard, Vancouver, ISO, and other styles
36

Eynard, Jean-Paul Bolliet Louis. "Réalisation d'outils logiciels pour la mise en œuvre de microprocessseurs dans la conduite automatique de procédés complexes." S.l. : Université Grenoble 1, 2008. http://dumas.ccsd.cnrs.fr/dumas-00334254.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Friot, Laurent. "Méthodologie de mise en oeuvre d'une régulation de climatisation par modèle interne appliquée au transport ferroviaire." Poitiers, 1995. http://www.theses.fr/1995POIT2355.

Full text
Abstract:
Le travail relaté dans ce mémoire de thèse avait pour objectif la définition et la mise en œuvre d'une méthodologie de réglage des régulations de climatisation du TGV. Une approche essentiellement basée sur la notion de modèle a été exploitée pour le choix et la synthèse d'une loi de commande. Pour la modélisation, une représentation à temps continu par équation différentielle a permis d'accéder aux paramètres physiques du système de climatisation. Une méthode d'identification du type erreur de sortie, avec minimisation du critère par programmation non linéaire, a été utilisée pour l'estimation paramétrique. Une loi de commande par modèle interne a permis d'exploiter pleinement les résultats de modélisation. L'utilisation d'un modèle de comportement explicite a simplifié la synthèse du correcteur, tout en garantissant les pôles et zéros de la boucle fermée. Une attention particulière a été portée à l'amélioration des performances en présence de saturation des actionneurs. Une solution intégrant la non-linéarité dans une structure bouclée du correcteur, a permis d'obtenir un fonctionnement satisfaisant, mais manquant de robustesse. L'utilisation d'une boucle supplémentaire, basée sur un modèle de comportement explicite du dispositif, a fourni d'excellents résultats en présence de saturation ; cette solution s'est avérée par ailleurs robuste vis à vis des erreurs d'identification du système en boucle ouverte et bien adaptée à la régulation de climatisation. Ce nouvel algorithme, intitulé CMIGS, a été validé sur unité-pilote et testé sur remorque de TGV
APA, Harvard, Vancouver, ISO, and other styles
38

Gadhoumi, Kais. "Mise en oeuvre d'un algorithme de traitement de la parole basé sur la quantification vectorielle pour une prothèse cochléaire." Sherbrooke : Université de Sherbrooke, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
39

Voisin, Yvon. "Détermination d'un critère pour la mise au point automatique des caméras pour des scènes à faible profondeur de champ : contribution à la mise au point des microscopes." Besançon, 1993. http://www.theses.fr/1993BESA2016.

Full text
Abstract:
Cette étude recense les différents outils mathématiques utilisables pour réaliser la mise au point des systèmes optiques. Ces outils mathématiques que nous appelons descripteurs sont rangés en deux familles: descripteurs primaires/descripteurs secondaires. Dans un premier temps nous proposons l'amélioration d'un descripteur primaire par la détermination automatique de ses paramètres. Dans un deuxième temps nous proposons, après en avoir étudié ses propriétés, un nouvel outil comme descripteur: «le critère de Cramer Von Mises». Ce critère a un excellent comportement vis-à-vis d'images globalement nettes ou globalement floues. Grâce à une simplification du calcul de cet outil sans altération notable de son comportement vis-à-vis du flou, nous avons pu obtenir des temps de calcul très courts. La méthode que nous proposons est basée sur l'utilisation répétée de cet outil sur des portions d'images après segmentation de celles-ci. Il permet ainsi la mise en évidence de différents plans de netteté éventuels.
APA, Harvard, Vancouver, ISO, and other styles
40

Eggert, Elmar. "La dérivation toponymes-gentilés en français : mise en évidence des régularités utilisables dans le cadre d'un traitement automatique." Tours, 2002. http://www.theses.fr/2002TOUR2032.

Full text
Abstract:
La thèse traite de la formation des gentilès (noms d'habitants : les Nantais) dont la forme paraît communément irrégulière, cf. Palois de Pau. Elle analyse un vaste corpus d'environ 10000 noms d'habitants sur lequel il s'avère que la formation des gentilés, construits par suffixation, est assez régulière. Après la délimitation du cadre de l'étude, certains aspects théoriques sont discutés qui constituent la base de l'analyse du corpus. Suit un résumé des travaux antérieurs dans ce domaine. La partie principale contient la description des noms de lieu et celle des gentilés et de leur mode de formation. Le résultat établit que le gentilé est formé par les processus réguliers comme par exemple la troncation et que le suffixe est déterminé par la forme du radical, mais dépend aussi de la région du nom de lieu. L'étude, menée dans le but d'utiliser cesn régularités dans le traitement automatique, présente comment des gentilés inconnus peuvent être reconnus automatiquement.
APA, Harvard, Vancouver, ISO, and other styles
41

Sabatier, Laura. "Étude des conséquences de traitements physiques sur le cheveu, de l’échelle moléculaire à celle de la fibre." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS076.

Full text
Abstract:
Les traitements thermomécaniques permettent une mise en forme temporaire et aisée de la chevelure, propriétés recherchées par les utilisateurs. Cependant, les effets obtenus ne sont pas toujours à la hauteur des attentes, notamment en raison d’une mauvaise tenue de la forme dans le temps et de possibles endommagements de la chevelure. Dans le but d’améliorer les appareils de coiffage existants, nous souhaitons comprendre les effets de ces traitements sur le cheveu, pour ensuite déterminer les conditions permettant d’atteindre la meilleure rémanence de la forme tout en minimisant la dégradation du cheveu. Pour ce faire, nous nous appuyons sur des expériences de traction, microdiffraction X et spectroscopie infrarouge. Tout d’abord, nous avons étudié l’organisation structurale de cheveux naturels. Nous avons mis en évidence une distribution de structure cœur – peau avec un cœur de structure régulière d’autant plus excentré que la courbure est marquée. Ensuite, nous avons dégagé les principaux paramètres sur. lesquels jouer lors de la mise en forme: température du mandrin, contrainte et durée d’application. Les effets de ces paramètres sur le comportement mécanique et la nanostructure du cheveu ont été évalués. Il ressort de notre étude que la contrainte de mise en forme est déterminante : nous avons défini la gamme de contraintes permettant de préserver la structure et les propriétés mécaniques du cheveu et celle occasionnant la dégradation du cheveu, voire une restructuration en feuillets bêta. Nous avons également évalué l’efficacité des différentes conditions de traitement à produire une forme durable dans le temps. En complément, nous nous sommes intéressés au mécanisme structural survenant lors de l’étirement de cheveux natifs ou préalablement traités, en couplant étirement continu d’un cheveu et analyse par microdiffraction X. Ainsi nous avons réussi à suivre l’évolution sous étirement d’une structure de cheveu transformée en feuillets bêta. Les résultats originaux obtenus au cours de ce travail, qui établissent un lien entre les mécanismes moléculaires et le comportement macroscopique du cheveu, permettent d’envisager le développement de nouveaux traitements thermomécaniques à l’échelle industrielle
Thermomechanical hair styling is preferred by users for easy and temporary reshaping of hair. However, the result is not always up to expectations, particularly due to poor shape stability over time and possible hair damage. In this work, we aim to improve hairstyling devices. To this end, we need to understand the effects of such treatments on hair in order to determine conditions which allow the best shape holding while minimizing hair damage. To achieve this, we use tensile testing, X-ray diffraction and infrared spectroscopy experiments. First, we studied the structural organization of natural hair. We highlighted a “core-skin” distribution of structures with a regular core which is all the more off-centered as curvature is high. Subsequently, we identified the main parameters of thermomechanical reshaping: temperature, stress and application time. Then, we evaluated the effects of these parameters on mechanical behavior and hair nanostructure. Our study shows that applied stress is a key factor: we defined stresses range allowing preservation of hair structure and its mechanical properties and the one leading to degradation or even driving to beta-sheets transition. Efficiency of the different treatment conditions in producing long-lasting shape over time was then evaluated. In addition, we analyzed the structural mechanisms that occur during stretching for native and pretreated hair: we used X-ray microdiffraction coupled with continuous stretching of hair. Consequently, we were able to monitor a beta sheet structure in hair during stretching. The original results obtained during this work, bridging internal molecular mechanisms and macroscopic behavior of hair, will allow to develop new thermomechanical treatments at industrial scale
APA, Harvard, Vancouver, ISO, and other styles
42

Maurine, Patrick. "Développement et mise en oeuvre de méthodologies d'étalonnage de robots manipulateurs industriels." Montpellier 2, 1996. http://www.theses.fr/1996MON20268.

Full text
Abstract:
L'etude presentee dans cette these concerne l'etalonnage geometrique des robots manipulateurs industriels. Sont tout d'abord presentes, aux regards des nombreux travaux deja realises dans le domaine, les principes et les methodes relatifs a la mise en uvre d'une procedure d'etalonnage dans un contexte industriel. Le probleme lie a la phase d'acquisition des mesures est mis en evidence. Son analyse a abouti a la synthese de deux methodologies d'etalonnage dont les finalites sont d'une part, l'indexation du robot dans sa cellule et l'identification des offsets du porteur et d'autre part, l'identification sous contrainte automatique et sans contact des parametres geometriques de la cellule. Au travers de ces methodologies, l'objectif cherche est de minimiser le cout, la duree et la complexite de la phase de mesure. Ceci s'est traduit par l'utilisation d'un meme capteur de distance place sur l'outil permettant pour la premiere methodologie de detecter des cibles localisees dans le volume de travail du robot et pour la deuxieme methode d'imposer a un point donne de l'outil une contrainte de positionnement de maniere automatique et sans contact. Pour chacune des methodes, le modele d'erreurs est deduit soit, de la geometrie des cibles utilisees soit, de l'equation de la contrainte realisee. L'observabilite des parametres du modele est etudiee et les premiers resultats experimentaux sont presentes et interpretes
APA, Harvard, Vancouver, ISO, and other styles
43

Lahoussine_Aquede. "Évaluation des méthodes semi-numérique et numérique pour la mise à jour de la carte topographique à l’échelle du 1/50 000 à partir des données de télédétection." Mémoire, Université de Sherbrooke, 1993. http://hdl.handle.net/11143/7869.

Full text
Abstract:
La mise à jour de la carte topographique à l’échelle du 1/50 000 peut être assurée d’une manière systématique et périodique par les méthodes semi-numérique et numérique à partir des données de télédétection. Dans ce cadre, cette étude vise à évaluer la pertinence de ces deux méthodes pour la mise à jour de ce type de carte à partir des images SPOT aux niveaux de la précision, du contenu, du temps et du coût. La méthode semi-numérique comporte deux cas. Le premier dit “semi-numérique non rigoureuse” est basé sur les images SPOT (panchromatique et multispectrale de 1987) corrigées avec un polynôme du second degré (forme analogique). Le second dit “semi-numérique rigoureuse” utilise l’ortho-image intégrée (forme analogique) produite à partir des mêmes images que le premier cas à l’aide du système de rectification d’images de télédétection “SRIT”. La méthode numérique exploite l’ortho-image intégrée (forme numérique) produite à l’aide du SRIT. La mise à jour de la carte topographique à l’échelle du 1/50 000 de 1979 (Feuillet de Sherbrooke-Coaticook) a été effectuée à partir des données SPOT (panchromatique du 20-06-1987 et multispectrale du 02-08-1987) par ces méthodes. La méthode semi-numérique “non rigoureuse” exploite les images corrigées à l’aide de l’autoprojecteur PROCOM-2 pour extraire les nouveaux éléments topographiques. Ces derniers sont tracés directement sur une copie (acétate) de la carte existante. Une fois [que] tous les changements sont apportés, on obtient la carte mise à jour (forme analogique). La méthode semi-numérique “rigoureuse” utilise l’ortho-image en procédant de la même manière que le cas précédent. La méthode numérique exploite l’ortho-image pour mettre à jour le fichier numérique de représentation “FNR” créé par la numérisation des planches mères de la carte existante. Cette mise à jour s’effectue par l’extraction manuelle à l’écran des détails en superposant le FNR à l’ortho-image. Le FNR ainsi mis à jour est appelé le fichier numérique de position “FNP” (forme numérique). Mis à part les éléments fins et les détails ponctuels, le contenu obtenu par la méthode semi-numérique (dans les deux cas) est comparable à celui obtenu par la méthode numérique. La méthode semi-numérique “non rigoureuse” est rapide (29%) et économique (50%) par rapport à la méthode numérique. Mais avec la précision de 73 m, elle est loin de répondre aux standards de précision de la cartographie à l’échelle du 1/50 000. La méthode semi-numérique “rigoureuse” permet une réduction des délais de 15% et du coût de 29% par rapport à la méthode numérique. La précision de 31 m obtenue n’est pas conforme aux normes de la carte à l’échelle du 1/50 000 “Classe A” (25 m) mais, elle est largement suffisante pour la mise à jour de la “Classe B” (50 m). La méthode numérique s’avère longue et onéreuse par rapport à la méthode semi-numérique. Cependant, elle s’impose par sa précision (14,91 m) qui répond aux tolérances de la carte à l’échelle du 1/50 000 “Classe A”. Dans le cas de la méthode semi-numérique, l’apport de quelques modifications à la logistique (remplacer la table de travail de l’autoprojecteur PROCOM-2 par une table de numérisation et améliorer le grossissement et la mise au point de l’objectif) pourrait sans doute conduire à des résultats meilleurs. La méthode numérique devient plus intéressante une fois la base de données topographiques établie. En effet le délai et le coût seront respectivement réduits d’environ 12% et 30%.
APA, Harvard, Vancouver, ISO, and other styles
44

Labiche, Alexandre. "Contribution à l’étude du stroma des carcinomes ovariens par une analyse morphologique, morphométrique et expérimentale, à l’échelle histologique et ultrastructurale : mise en évidence de l’importance de la vascularisation." Caen, 2008. http://www.theses.fr/2008CAEN4002.

Full text
Abstract:
Le carcinome ovarien est un cancer au pronostic très sombre, dont le diagnostic intervient le plus souvent à un stade avancé. Une connaissance précise de l’histoire naturelle de ce cancer est indispensable si l’on souhaite non seulement mettre en évidence de nouvelles cibles thérapeutiques, mais également déterminer de nouveaux marqueurs de pronostic et de suivi. Nous avons choisi d’étudier les éléments du stroma de ces tumeurs qui jouent sans doute un rôle fondamental dans la progression et la résistance des carcinomes ovariens. Ainsi, nous avons mis en évidence l’impact pronostique de l'abondance des vaisseaux sanguins, des mastocytes et du stroma dans ces tumeurs. Afin de mieux comprendre les phénomènes de récidive intervenant fréquemment dans cette maladie, nous avons ensuite analysé finement les greffes péritonéales de ces tumeurs en les caractérisant du point de vue structural et fonctionnel. Nous avons également mis au point un modèle de carcinose péritonéale chez la souris nude qui nous a permis d’étudier les différentes étapes de mise en place du stroma tumoral. Enfin, nous avons évalué sur ce modèle de carcinose péritonéale murine l’effet d’un anti-angiogénique couplé ou non à une chimiothérapie conventionnelle
The ovarian carcinoma is a cancer of very poor prognosis, as diagnosis occurs at an advanced stage. A better understanding of the natural history of this cancer is critical interest in order to discover new targeted therapies and to determine new markers for prognosis prediction and therapeutic follow-up. We have chosen to study the tumour stroma which plays probably a crucial role in the tumorigenesis and drug resistance of ovarian carcinomas. This study highlighted that the amount of blood vessels, mast cells and stroma can be used as prognosis indicators. Then, we have focused our study on peritoneal metastasis which are responsible of the recurrence of this disease. We have also finalized an in vivo mice model of peritoneal carcinosis to investigate the different steps of stroma development. Finally, we have tested on this model the effect of an anti-angiogenic drug associated or not with classical chemotherapy
APA, Harvard, Vancouver, ISO, and other styles
45

Wu, Yao Kuang Marie-Blandine. "Robustesse des systèmes auteurs multimédias : contribution théorique et mise en oeuvre." Paris 8, 2000. http://www.theses.fr/2000PA081746.

Full text
Abstract:
Les systemes auteurs multimedias ou sam sont des outils de developpement permettant a tout individu de concevoir un didacticiel ou tout type de logiciel pour partager leurs connaissances avec le minimum d'effort en programmation. Mais le resultat de ces concepts n'est pas proportionnel aux efforts et aux merites des chercheurs et des professionnels qui s'y sont investis. La complexite des fonctions et des problemes rencontres par les personnes initiees ou non a la conception, la distribution physique et fonctionnelle des erreurs et l'heterogeneite des moyens et des medias mis en oeuvre ne facilitent pas l'adaptation des sam a des changements de structures et a des evolutions de contexte. La robustesse incluant les concepts de fiabilite, de perennite et de surete de fonctionnement est alors un des piliers manquant pour la reussite des sam. Dans cette these, nous defendons notre point de vue sur la necessite d'assister l'utilisateur de sam lors de la conception, de l'evaluation et de l'interaction homme-machine. Nous allons proposer une solution theorique basee sur un systeme multi-agents et une architecture en couches, qui conduit a la creation d'un outil appele environnement de creation de logiciels robustes ou eclr. Contrairement aux autres outils, l'eclr possede une architecture simple et performante qui s'adapte a l'evolution du systeme, du contexte et de l'environnement. Apres une synthese sur les sam actuels, nous orientons notre recherche sur les notions d'erreurs et de robustesse dans la conception de logiciel. Nous mettons en oeuvre ensuite un systeme multi-agents ou nous ferons la distinction entre l'organisation et l'interaction des agents afin d'integrer les qualites d'analyse, de decision, d'anticipation, d'apprentissage presentes chez un humain.
APA, Harvard, Vancouver, ISO, and other styles
46

Martinez, Cristian. "Grammaires locales étendues : principes, mise en œuvre et applications pour l’extraction de l’information." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1075/document.

Full text
Abstract:
Les grammaires locales constituent un formalisme de description de constructions linguistiques et sont communément représentées sous la forme de graphes orientés. Utilisées pour la recherche et l'extraction de motifs dans un texte, elles trouvent leurs limites dans le traitement de variations non décrites ou fautives ainsi que dans la capacité à accéder à des connaissances exogènes, c'est-à-dire des informations à extraire, au cours de l'analyse, de ressources externes à la grammaire et qui peuvent s'avérer utiles pour normaliser, enrichir, valider ou mettre en relation les motifs reconnus. Dans cette thèse nous introduisons la notion de grammaire locale étendue. Il s'agit d'un formalisme capable d'étendre le modèle classique des grammaires locales. Premièrement, en ajoutant des fonctions arbitraires à satisfaire, appelées fonctions étendues, qui ne sont pas prédéfinies à l'avance et qui sont évaluées en dehors de la grammaire. De surcroît, ce formalisme fournit à l'analyseur syntaxique la possibilité de déclencher des événements qui peuvent également être traités sous la forme de fonctions étendues. Le travail présenté se divise en trois parties: dans un premier temps, nous étudions les principes concernant la construction des grammaires locales étendues. Nous présentons ensuite la mise en œuvre d'un moteur d'analyse textuelle implémentant le formalisme proposé. Enfin, nous étudions quelques applications pour l'extraction de l'information dans des textes bien formés et des textes bruités. Nous nous focalisons sur le couplage des ressources externes et des méthodes non-symboliques dans la construction de nos grammaires en montrant la pertinence de cette approche pour dépasser les limites des grammaires locales classiques
Local grammars constitute a descriptive formalism of linguistic phenomena and are commonly represented using directed graphs. Local grammars are used to recognize and extract patterns in a text, but they had some inherent limits in dealing with unexpected variations as well as in their capacity to access exogenous knowledge, in other words information to extract, during the analysis, from external resources and which may be useful to normalize, enhance validate or link the recognized patterns. In this thesis, we introduce the notion of extended local grammar, a formalism capable to extend the classic model of local grammars. The means are twofold: on the one hand, it is achieved by adding arbitrary conditional-functions, called extended functions, which are not predefined in advance and are evaluated from outside of the grammar. On the other hand, it is achieved by allowing the parsing engine to trigger events that can also be processed as extended functions. The work presented herewith is divided into three parts: In the first part, we study the principles regarding the construction of the extended local grammars. Then, we present a proof-of-concept of a corpus-processing tool which implements the proposed formalism. Finally, we study some techniques to extract information from both well-formed and noisy texts. We focus on the coupling of external resources and non-symbolic methods in the construction of our grammars and we highlight the suitability of this approach in order to overcome the inherent limitations of classical local grammars
APA, Harvard, Vancouver, ISO, and other styles
47

Binet, Karine. "Mise en oeuvre d'un système d'aide à la détection de cibles terrestres camouflées." Rennes 1, 2005. http://www.theses.fr/2005REN1S085.

Full text
Abstract:
L'innovation technologique offre de nouvelles perspectives à la surveillance en continu du champ de bataille. Dans ce contexte, notre effort de recherche a porté sur la réalisation d'un système d'aide à la DRI (Détection Reconnaissance Identification) des cibles terrestres camouflées, et plus spécifiquement sur l'étape de détection. L'absence de connaissance à priori et les contraintes de contre-mesures considérées (camouflage) nous ont amené à émettre l'hypothèse selon laquelle le camouflage provoquerait une déformation locale de la texture environnante. Un processus de segmentation régi par le calcul d'attributs de textures adaptés permet, dans un premier temps, d'obtenir une carte des textures dominantes de la scène, et dans un second temps, d'isoler les déformations au sein de chacune d'elle. Les résultats valident l'hypothèse initiale, mais des extensions, rendues possibles par la modularité de notre système, peuvent augmenter le taux de détection.
APA, Harvard, Vancouver, ISO, and other styles
48

Bouyoucef, El Khier. "Contribution à l'étude et la mise en oeuvre d'indicateurs quantitatifs et qualitatifs d'estimation de la complexité pour la régulation du processus d'auto-organisation d'une structure neuronale modulaire de traitement d'information." Paris 12, 2007. http://www.theses.fr/2007PA120049.

Full text
Abstract:
La classification est un outil clé dans de nombreux domaines, notamment médical et industriel. La défaillance principale des classificateurs est due à la fiabilité des modèles théoriques ou empiriques exploités. Dans le cadre de cette thèse de doctorat, nous nous intéressons à l’étude de la notion de la complexité des données représentant un problème de classification dans le cadre d’une nouvelle structure neuronale arborescente de traitement de l’information désignée par le terme « Tree-like Divide To Simplify » (T-DTS). Dans cette approche, un problème de classification sera traité par plusieurs modèles locaux adaptés à la difficulté du problème. Nous avons utilisé et construit des indicateurs quantitatifs et qualitatifs de la complexité dont le rôle est d’obtenir une adéquation entre la complexité et la structure de traitement. Plusieurs bases de données issues des problèmes de classification artificiels et réels sont exploitées pour valider la pertinence des estimateurs de complexité et pour comparer les performances de la structure T-DTS selon les différents modes de fonctionnement et pour comparer ses performances par rapport à d’autres algorithmes de classification
The classification is a key tool in numerous domains, notably medical and industrial domains. The main failure of classifiers is due to the reliability of the exploited theorical or empirical models. Within the framework of this doctoral thesis, we are interested in the study of data complexity notion, data representing a problem of classification within the framework of a new treelike neural structure of data processing termed « Tree-like Divide To Simplify » (T-DTS). In this approach, a problem of classification will be dealt by several local models adapted to the difficulty of the problem. We used and built quantitative and qualitative complexity indicators from which the role is to obtain an adequacy between the complexity and the structure of treatment. Several data bases issued from artificial and real problems of classifications are tested to validate the pertinance of the valeur of complexity and to compare the performances of the structure T-DTS following different modes of function and also compare it to other algorithms of classification
APA, Harvard, Vancouver, ISO, and other styles
49

Bouyoucef, El Khier Madani Kurosh. "Contribution à l'étude et la mise en oeuvre d'indicateurs quantitatifs et qualitatifs d'estimation de la complexité pour la régulation du processus d'auto-organisation d'une structure neuronale modulaire de traitement d'information." Créteil : Université de Paris-Val-de-Marne, 2008. http://doxa.scd.univ-paris12.fr:8080/theses-npd/th0405301.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Tencé, Marcel. "Un système informatique pour l'acquisition et le traitement des données en microscopie électronique : réalisation, mise au point et application." Paris 11, 1987. http://www.theses.fr/1987PA112449.

Full text
Abstract:
Par son principe même, la nouvelle génération de microscopes électroniques à balayage en transmission est particulièrement adaptée à un couplage avec une unité informatique. Cette dernière doit remplir plusieurs missions : la gestion des paramètres d’acquisition des données à travers le contrôle de certaines commandes du microscope, l’archivage du résultat et leur traitement a posteriori. Le microscope STD1 offre en outre des caractères spécifiques qui ont conditionné les choix techniques dans la conception de l'architecture du système informatique et la réalisation des interfaces nécessaires. Il assure la possibilité d'enregistrer les divers signaux délivres simultanément par le microscope pour une position donnée de la sonde sur l'échantillon. Il s'agit aussi des séquences d'images filtrées à différentes pertes d'énergie requises pour la cartographie élémentaire. Enfin, la duplication d'images dans des conditions de fonctionnement données ouvre le champ aux techniques de corrélation croisée pour l’estimation de la résolution et du rapport signal/bruit dans une image. Ce travail contient donc la description du hardware réalisé et des logiciels écrits pour remplir ces missions. Il se conclut par la description de trois applications originales réalisées avec l'ensemble de ce système : i) la détermination en ligne de la dimension fractale de familles d'agrégats, ii) la mesure de la résolution spatiale dans des images de cartographie chimique par spectroscopie de pertes d'énergie, iii) le développement quantitatif de ces méthodes avec une estimation raisonnable des limites de détection, à savoir l'identification d'un atome isolé
As a consequence of its general layout, the new generation of scanning transmission electron microscopes (STEM) is particularly well suited to be interfaced with a computer which has several functions the control of the electron microscope parameters used for image acquisition, the storage of the recorded data and their a posteriori processing. STEM instruments offer several specific characters which determine the technical choices for the elaboration of the digital system hardware and for building the required interfaces. These are the capability of simultaneously recording the data delivered by the different detection channels for one probe position on the specimen. It has also to handle the sequences of energy filtered images necessary for achieving elemental mapping. Finally, the replication of images in a given set of working conditions is the key for applying cross correlation techniques and estimating image parameters such as point resolution or signal to noise ratio. This work describes the hardware which has been built and the software which has been elaborated to fulfill these goals. As a conclusion, we present three different applications made with this system : i) on-line measurement of the fractal dimension of aggregates, ii) estimate of the spatial resolution in EELS chemical mapping, iii) quantitative development of these methods with a reasonable extrapolation of the detection limits to the identification of a single atom
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography