Thèses sur le sujet « Problème de reconnaissance »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Problème de reconnaissance.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 36 meilleures thèses pour votre recherche sur le sujet « Problème de reconnaissance ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Balbontin-Gallo, Cristobal. « Hegel/Levinas et le problème de la reconnaissance ». Thesis, Paris 10, 2015. http://www.theses.fr/2015PA100074.

Texte intégral
Résumé :
Notre thèse vise donc à confronter la pensée de Levinas à celle d’Hegel autour du problème de la reconnaissance. Elle a pour but non seulement de faire une lecture critique de la pensée de Levinas à la lumière de la pensée de Hegel, mais de mener également une lecture critique du problème de la reconnaissance chez Hegel à la lumière des exigences de Levinas. Le propos est d’envisager une relecture du problème de la reconnaissance qui permette de surmonter l’ensemble des critiques. Ainsi, nous projetons de faire une relecture de l’ensemble de la philosophie hégélienne en donnant une portée post-métaphysique à son œuvre. Cela implique aussi d’élaborer une interprétation systématique du problème de la reconnaissance qui porte non seulement sur la Phénoménologie de l’esprit, mais aussi sur trois autres versions de la dialectique de la reconnaissance dans la periode de Francfort, la periode d’Iéna et l’Encyclopédie de Heidelberg. Notre thèse est que les deux philosophes adressent réciproquement l’un à l’autre une critique radicale qui risque vraisemblablement de changer le visage du problème de la reconnaissance, et qui a des conséquences normatives et politiques
Our thesis therefore aims to confront the thought of Levinas to that of Hegel around the problem of the recognition. It is designed not only to make a critical reading of the thought of Levinas in the light of the thought of Hegel, but to carry out also a critical reading of the problem of hegel’s recognition theory in the light of the requirements of Levinas. The purpose is to explore a new lecture of the problem of recognition which allows us to overcome all the criticism, as well as intending to do a replay of the whole of the hegelian philosophy in giving a post-metaphysical scope of its implementation. This also implies to develop a systematic interpretation of the problem of recognition which is to be focused not only on the Phenomenology of the spirit, but also on three other versions of the dialectic of the recognition in the Frankfurt writings, the Jena writings and the Encyclopedia of Heidelberg. Our thesis is that the two philosophers directed conversely one to the other a radical criticism that is likely to change the face of the problem of recognition, and which has normative and political consequences
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ostrowski, Richard. « Reconnaissance et exploitation de propriétés structurelles pour la résolution du problème SAT ». Artois, 2004. http://www.theses.fr/2004ARTO0403.

Texte intégral
Résumé :
Le problème de satisfiabilité (SAT) en logique propositionnelle capture l'essence de nombreux problèmes difficiles présents dans de nombreuses disciplines tels que l'intelligence artificielle, l'informatique, la recherche opérationnelle, etc. Ce problème revient à décider si une formule booléenne mise sous forme normale conjonctive est satisfaisable ou non. Ce problème est NP-Complet et est au coeur de la théorie de la complexité, où il joue un rôle fondamental. Il n'existe pas à l'heure actuelle d'algorithmes permettant de le résoudre efficacement. Néanmoins, certaines classes (traitables) du problème SAT admettent des algorithmes efficaces. Ces dernières années, de nouvelles méthodes de résolution sont apparues et semblent moins souffrir de l'explosion combinatoire en pratique sur de nombreux problèmes. Dans une première partie, nous énonçons quelques définitions au sujet de la logique propositionnelle, fixons les notations et présentons le problème SAT. Nous présentons en seconde partie une première contribution. Celle-ci porte sur l'extraction et l'utilisation d'informations structurelles exprimées sous la forme de fonctions booléennes à partir d'une formule CNF. Ces travaux ont abouti au développement d' un nouveau solveur : LSAT. En troisième partie, nous présentons une nouvelle forme d'apprentissage (principe de recherche complémentaire proposé par Purdom) et proposons une méthode combinant résolution et énumération dans le but de produire de nouvelles informations. Ces approches constituent notre contribution aux techniques prospectives et rétrospectives
The satisfiability problem of propositional logic (SAT) captures the essence of many difficult problems in disciplines such as artificial intelligence, computer science, electrical engineering and operations research. It concers the problem of deciding whether or not a logical formula contains a contradiction. In general no efficeint algorithms are available to solve it but some specific classes of SAT allow efficient algorithms. These last years, new algorithms were developed that in practice seem to suffer less from the combinatorial explosion. First, we propose a new pre-processing step in the resolution of SAT instances that recovers and exploit some structural knowledge that is hidden in the formula. New simplifications are also proposed. All these extractions and simplifications techniques allowed us to implement a new SAT solver that proves to be the most efficient current one with respect to several important classes of instances. Then, a branching criterion initialy introduced by Purdom is revisited and extended. It is shown very efficient from a practical point of view in that it allows search trees in SAT solving to be pruned in a significant way. New method combining resolution and enumeration is finally proposed to produce new informations
Styles APA, Harvard, Vancouver, ISO, etc.
3

Ellabban, Hicham. « Particularités du problème de la reconnaissance optique des caractères et de l'écriture arabes ». Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090062.

Texte intégral
Résumé :
Les problèmes rencontrés lors de la reconnaissance des caractères et de l'écriture manuscrite et imprimée, aussi bien pour l'écriture latine qu'arabe, sont nombreuses. Les problèmes de la reconnaissance de l'écriture manuscrite sont plus difficiles à résoudre. Le problème de la segmentation des caractères constitue le défi principal à la reconnaissance de l'écriture arabe en général que se soit imprimée ou manuscrite, se qui représente une similitude avec le problème de reconnaissance de l'écriture manuscrite latine. La reconnaissance des caractères et de l'écriture arabes rencontre aussi des problèmes spécifiques. Pour résoudre ces problèmes deux types de méthodes ont été développées, des méthodes syntaxiques et d'autres statistiques. Nous tenterons, dans ce travail, essentiellement, de faire un tour d'horizon des recherches qui ont été faites concernant le problème de reconnaissance des caractères et de l'écriture arabe ; et ensuite, nous essaierons de proposer un projet de solution pour la reconnaissance de l'écriture imprimée arabe, qui consiste à comparer le caractère segmente avec la bibliothèque complète des caractères.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Labroche, Nicolas. « Modélisation du système de reconnaissance chimique des fourmis pour le problème de la classification non-supervisée : application à la mesure d'audience sur internet ». Tours, 2003. http://www.theses.fr/2003TOUR4033.

Texte intégral
Résumé :
Dans ce travail de thèse, nous proposons de modéliser le système de reconnaissance chimique des fourmis pour concevoir une méthode de classification non-supervisée, appliquée au problème de la mesure d'audience sur Internet. Les principes biologiques issus du modèle ont permis d'une part de réaliser un simulateur de vie artificielle capable de reproduire des expériences conduites sur les fourmis réelles et d'autre part, de poser les bases de nos algorithmes de classification AntClust et Visual AntClust. Ceux-ci associent un objet à classer au génome d'une fourmi artificielle et simulent des rencontres entre ces dernières. Le regroupement des fourmis ayant une odeut comparable dans les même nids réalise la partition recherchée des objets. Une représentation multi-modale des sessions de navigations sur internet ainsi qu'une mesure de similarité adaptée ont été développées et associées à AntClust de façon à aider à la compréhension de l'activité des internautes sur les sites web
In this thesis, we model the chemical recognition system of ants to develop a new unsupervised clustering method, applied to the web usage mining problem. The biological principles of the model allowed us on the one hand to develop an artificial life simulator able to reproduce real ants experiments and on the other hand to set the basis of our clustering algorithm AntClust and Visual AntClust. These algorithms associate one object to the genome of an artificial ant and simulate meetings between them. The gathering of artificial ants with similar odours in the same nest builds the expected partition of the objects. We associate Antclust to a multi-modal representation of the web sessions and an adapted similarity measure to help understanding the web users behaviours
Styles APA, Harvard, Vancouver, ISO, etc.
5

Marthon, Philippe. « Contribution à la modélisation et à la résolution du problème de la vision passive tridimensionnelle par ordinateur : analyse d'un monde d'objets polyédrique ». Toulouse, INPT, 1987. http://www.theses.fr/1987INPT100H.

Texte intégral
Résumé :
Dans le premier chapitre, il est fait etat des recherches en vision par ordinateur et uneclassification des systemes de vision est proposee. Le deuxieme chapitre decrit le systeme de vision sirop qui est apte a reconnaitre et a localiser des objets polyedriques, etant donnes une seule image de la scene, un modele de la prise de vue et l'ensemble de tous les modeles d'objets susceptibles de se presenter. Le troisieme chapitre examine certaines conditions d'application de ce systeme a l'interpretation de scenes quelconques. Un nouvel algorithme de vision stereoscopique est propose: il commence par apparier des regions avant d'apparier les sommets eux-memes.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Liu, Xiang. « Contrôle non destructif du sol et imagerie d'objets enfouis par des systèmes bi- et multi-statiques : de l’expérience à la modélisation ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC067/document.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse portent sur les résolutions des problèmes direct et inverse associés à l’étude du radar de sol (GPR). Ils s’inscrivent dans un contexte d’optimisation des performances et d’amélioration de la qualité de l’imagerie. Un état de l’art est réalisé et l’accent est mis sur les méthodes de simulation et les techniques d’imagerie appliquées dans le GPR. L’étude de l’utilisation de la méthode du Galerkin discontinue (GD) pour la simulation GPR est d’abord réalisée. Des scénarios complets de GPR sont considérés et les simulations GD sont validées par comparaison avec des données obtenues par CST-MWS et des mesures. La suite de l’étude concerne la résolution du problème inverse en utilisant le Linear Sampling Method (LSM) pour l’application GPR. Une étude avec des données synthétiques est d’abord réalisée afin de valider et tester la fiabilité du LSM. Finalement, le LSM est adapté pour des applications GPR en prenant en compte les caractéristiques du rayonnement de l’antenne ainsi que ses paramètres S. Finalement, une étude est effectuée pour prouver la détectabilité de la jonction d‘un câble électrique souterrain dans un environnement réel
The work presented in this thesis deals with the resolutions of the direct and inverse problems of the ground radar (GPR). The objective is to optimize GPR’s performance and its imaging quality. A state of the art of ground radar is realized. It focused on simulation methods and imaging techniques applied in GPR. The study of the use of the discontinuous Galerkin (GD) method for the GPR simulation is first performed. Some scenarios complete of GPR are considered and the GD simulations are validated by comparing the same scenarios’ modeling with CST-MWS and the measurements. Then a study of inverse problem resolution using the Linear Sampling Method (LSM) for the GPR application is carried out. A study with synthetic data is first performed to test the reliability of the LSM. Then, the LSM is adapted for the GPR application by taking into account the radiation of antenna. Finally, a study is designed to validate the detectability of underground electrical cables junction with GPR in a real environment
Styles APA, Harvard, Vancouver, ISO, etc.
7

Zaki, Sabit Fawzi Philippe. « Classification par réseaux de neurones dans le cadre de la scattérométrie ellipsométrique ». Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES070/document.

Texte intégral
Résumé :
La miniaturisation des composants impose à l’industrie de la micro-électronique de trouver des techniques de caractérisation fiables rapides et si possible à moindre coût. Les méthodes optiques telles que la scattérométrie se présentent aujourd’hui comme des alternatives prometteuses répondant à cette problématique de caractérisation. Toutefois, l’ensemble des méthodes scattérométriques nécessitent un certain nombre d’hypothèses pour assurer la résolution d’un problème inverse et notamment la connaissance de la forme géométrique de la structure à tester. Le modèle de structure supposé conditionne la qualité même de la caractérisation. Dans cette thèse, nous proposons l’utilisation des réseaux de neurones comme outils d’aide à la décision en amont de toute méthode de caractérisation. Nous avons validé l’utilisation des réseaux de neurones dans le cadre de la reconnaissance des formes géométriques de l’échantillon à tester par la signature optique utilisée dans toute étape de caractérisation scattérométrique. Tout d’abord, le cas d’un défaut lithographique particulier lié à la présence d’une couche résiduelle de résine au fond des sillons est étudié. Ensuite, nous effectuons une analyse de détection de défaut de modèle utilisé dans la résolution du problème inverse. Enfin nous relatons les résultats obtenus dans le cadre de la sélection de modèles géométriques par réseaux de neurones en amont d’un processus classique de caractérisation scattérométrique. Ce travail de thèse a montré que les réseaux de neurones peuvent bien répondre à la problématique de classification en scattérométrie ellipsométrique et que l’utilisation de ces derniers peut améliorer cette technique optique de caractérisation
The miniaturization of components in the micro-electronics industry involves the need of fast reliable technique of characterization with lower cost. Optical methods such as scatterometry are today promising alternative to this technological need. However, scatterometric method requires a certain number of hypothesis to ensure the resolution of an inverse problem, in particular the knowledge of the geometrical shape of the structure under test. The assumed model of the structure determines the quality of the characterization. In this thesis, we propose the use of neural networks as decision-making tools upstream of any characterization method. We validated the use of neural networks in the context of recognition of the geometrical shapes of the sample under testing by the use of optical signature in any scatterometric characterization process. First, the case of lithographic defect due to the presence of a resist residual layer at the bottom of the grooves is studied. Then, we carry out an analysis of model defect in the inverse problem resolution. Finally, we report results in the context of selection of geometric models by neural networks upstream of a classical scatterometric characterization process. This thesis has demonstrated that neural networks can well answer the problem of classification in ellipsometric scatterometry and their use can improve this optical characterization technique
Styles APA, Harvard, Vancouver, ISO, etc.
8

Mercier, David. « Fusion d'informations pour la reconnaissance automatique d'adresses postales dans le cadre de la théorie des fonctions de croyance ». Compiègne, 2006. http://www.theses.fr/2006COMP1649.

Texte intégral
Résumé :
Dans ce mémoire, un problème de fusion de décisions postales est présenté. Une des caractéristiques de ce problème réside dans l'organisation hiérarchique des décisions, chaque lecteur d'adresses postales pouvant fournir une décision d'un niveau quelconque dans la hiérarchie. Plusieurs modèles de fusion de décisions postales sont construits dans le cadre de la théorie des fonctions de croyance. Des méthodes de construction d'une fonction de croyance à partir d'une matrice de confusion et d'une hiérarchie, sont exposées, ainsi que la méthode de prise de décision permettant un ajustement de la combinaison aux contraintes de taux de lecture et taux d'erreur attendues par l'utilisateur. Des performances probantes sont obtenues par ces modèles. Sur le plan théorique, de nouveaux outils de manipulation de fonctions de croyance ont été développés afin d'exploiter plus finement des informations sur la fiabilité des sources à combiner. Par l'affaiblissement contextuel, la dépendance au contexte de la fiabilité peut être prise en compte. Par le mécanisme général de correction proposé, différents états de fiabilité peuvent être modélisés, ce qui permet de développer des stratégies de correction autres qu'un affaiblissement
Ln this report, a problem of postal addresses fusion is tackled. One characteristic of this problem is the hierarchical organisation of the decisions, each postal address reader being able to provide a decision at every level of the hierarchy. Several models are built within the framework of belief functions theory. Methods for building belief functions based on confusion matrices and the aforementioned hierarchy is exposed, as well as a decision-making method. This method allows an adjustment of the combination to the recognition and error rates awaited by the user. These models show convincing performances. On the theoretical level, new tools for the handling of belief functions are developed. Ln comparison with existing tools, the ones we propose improve the exploitation of information on the reliability of the sources to be combined. Contextual discounting allows the context dependence of the reliability to be taken into account. By the use of general correction mechanisms, various states of reliability can be modelled, which makes it possible to develop strategies of correction other than a weakening
Styles APA, Harvard, Vancouver, ISO, etc.
9

Kumar, Ratnesh. « Segmentation vidéo et suivi d'objets multiples ». Thesis, Nice, 2014. http://www.theses.fr/2014NICE4135/document.

Texte intégral
Résumé :
Dans cette thèse nous proposons de nouveaux algorithmes d'analyse vidéo. La première contribution de cette thèse concerne le domaine de la segmentation de vidéos avec pour objectif d'obtenir une segmentation dense et spatio-temporellement cohérente. Nous proposons de combiner les aspects spatiaux et temporels d'une vidéo en une seule notion, celle de Fibre. Une fibre est un ensemble de trajectoires qui sont spatialement connectées par un maillage. Les fibres sont construites en évaluant simultanément les aspects spatiaux et temporels. Par rapport a l’état de l'art une segmentation de vidéo a base de fibres présente comme avantages d’accéder naturellement au voisinage grâce au maillage et aux correspondances temporelles pour la plupart des pixels de la vidéo. De plus, cette segmentation à base de fibres a une complexité quasi linéaire par rapport au nombre de pixels. La deuxième contribution de cette thèse concerne le suivi d'objets multiples. Nous proposons une approche de suivi qui utilise des caractéristiques des points suivis, la cinématique des objets suivis et l'apparence globale des détections. L'unification de toutes ces caractéristiques est effectuée avec un champ conditionnel aléatoire. Ensuite ce modèle est optimisé en combinant les techniques de passage de message et une variante de processus ICM (Iterated Conditional Modes) pour inférer les trajectoires d'objet. Une troisième contribution mineure consiste dans le développement d'un descripteur pour la mise en correspondance d'apparences de personne. Toutes les approches proposées obtiennent des résultats compétitifs ou meilleurs (qualitativement et quantitativement) que l’état de l'art sur des base de données
In this thesis we propose novel algorithms for video analysis. The first contribution of this thesis is in the domain of video segmentation wherein the objective is to obtain a dense and coherent spatio-temporal segmentation. We propose joining both spatial and temporal aspects of a video into a single notion Fiber. A fiber is a set of trajectories which are spatially connected by a mesh. Fibers are built by jointly assessing spatial and temporal aspects of the video. Compared to the state-of-the-art, a fiber based video segmentation presents advantages such as a natural spatio-temporal neighborhood accessor by a mesh, and temporal correspondences for most pixels in the video. Furthermore, this fiber-based segmentation is of quasi-linear complexity w.r.t. the number of pixels. The second contribution is in the realm of multiple object tracking. We proposed a tracking approach which utilizes cues from point tracks, kinematics of moving objects and global appearance of detections. Unification of all these cues is performed on a Conditional Random Field. Subsequently this model is optimized by a combination of message passing and an Iterated Conditional Modes (ICM) variant to infer object-trajectories. A third, minor, contribution relates to the development of suitable feature descriptor for appearance matching of persons. All of our proposed approaches achieve competitive and better results (both qualitatively and quantitatively) than state-of-the-art on open source datasets
Styles APA, Harvard, Vancouver, ISO, etc.
10

Vialard, François-Xavier. « APPROCHE HAMILTONIENNE POUR LES ESPACES DE FORMES DANS LE CADRE DES DIFFÉOMORPHISMES : DU PROBLÈME DE RECALAGE D'IMAGES DISCONTINUES À UN MODÈLE STOCHASTIQUE DE CROISSANCE DE FORMES ». Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00400379.

Texte intégral
Résumé :
Ce travail de thèse se situe dans le contexte de l'appariement d'images par difféomorphismes qui a été récemment développé dans le but d'applications à l'anatomie computationnelle et l'imagerie médicale. D'un point de vue mathématique, on utilise l'action de groupe de difféomorphismes de l'espace euclidien pour décrire la variabilité des formes biologiques.

Le cas des images discontinues n'était compris que partiellement. La première contribution de ce travail est de traiter complètement le cas des images discontinues en considérant comme modèle d'image discontinues l'espace des fonctions à variations bornées. On apporte des outils techniques pour traiter les discontinuités dans le cadre d'appariement par difféomorphismes. Ces résultats sont appliqués à la formulation Hamiltonienne des géodésiques dans le cadre d'un nouveau modèle qui incorpore l'action d'un difféomorphisme sur les niveaux de grille de l'image pour prendre en compte un changement d'intensité. La seconde application permet d'étendre la théorie des métamorphoses développée par A.Trouvé et L.Younes aux fonctions discontinues. Il apparait que la géométrie de ces espaces est plus compliquée que pour des fonctions lisses.

La seconde partie de cette thèse aborde des aspects plus probabilistes du domaine. On étudie une perturbation stochastique du système Hamiltonien pour le cas de particules (ou landmarks). D'un point de vue physique, on peut interpréter cette perturbation comme des forces aléatoires agissant sur les particules. Il est donc naturel de considérer ce modèle comme un premier modèle de croissance de forme ou au moins d'évolutions aléatoires de formes.

On montre que les solutions n'explosent pas en temps fini presque sûrement et on étend ce modèle stochastique en dimension infinie sur un espace de Hilbert bien choisi (en quelque sorte un espace de Besov ou Sobolev sur une base de Haar). En dimension infinie la propriété précédente reste vraie et on obtient un important (aussi d'un point de vue numérique) résultat de convergence du cas des particules vers le cas de dimension infinie. Le cadre ainsi développé est suffisamment général pour être adaptable dans de nombreuses situations de modélisation.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Michels, Yves. « Reconstruction tomographique d'objets déformables pour la cryo-microscopie électronique à particules isolées ». Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD031/document.

Texte intégral
Résumé :
La cryo-microscopie électronique à particules isolées est une modalité d’imagerie permettant d’estimer la structure 3D de molécules. L’obtention d’un volume 3D est effectué par des algorithmes de reconstruction tomographique après acquisition par un microscope électronique à transmission d’un ensemble d’images de projection de l’objet observé. Les méthodes de reconstruction tomographique existantes permettent de déterminer la structure des molécules avec des résolutions proches de l’angström. Cependant la résolution est dégradée lorsque les molécules observées sont déformables. Les travaux réalisés au cours de cette thèse contribuent au développement de méthodes de traitement informatique des données (projections) dans le but de prendre en compte les déformations de l’objet observé dans le processus de reconstruction tomographique ab initio. Les problématiques principales abordées dans ce mémoire sont l’estimation des paramètres de projection basée sur la réduction de dimension non-linéaire, la détection des arêtes erronées dans les graphes de voisinages pour l’amélioration de la robustesse au bruit des méthodes de réduction de dimension, et la reconstruction tomographique basée sur un modèle paramétrique du volume
Single particle cryo-electron microscopy is a technique that allows to estimate the 3D structure of biological complex. The construction of the 3D volume is performed by computerized tomography applied on a set of projection images from transmission electron microscope. Existing tomographic reconstructionalgorithms allow us to visualize molecular structure with a resolution around one angstrom. However the resolution is degraded when the molecules are deformable. This thesis contributes to the development of signal processing method in order to take into account the deformation information of the observed object for the ab initio tomographic reconstruction. The main contributions of this thesis are the estimation of projection parameters based on non-linear dimensionreduction, the false edges detection in neighborhood graphs to improve noise robustness of dimension reduction methods, and tomographic reconstruction based on a parametric model of the volume
Styles APA, Harvard, Vancouver, ISO, etc.
12

Wang, Lin. « Reconnaissance des formes en biométrie : classification des empreintes digitales ». Bordeaux 3, 2005. http://www.theses.fr/2005BOR30033.

Texte intégral
Résumé :
La classification des empreintes digitales est une étape très importante dans le système de l'identification automatique des empreintes digitales. Les points singuliers, le coeur et le delta sont amplement appliqués dans la classification des empreintes digitales. Les nombreux systèmes actuels de classification des empreintes digitales sont basées sur l'extraction de tels points singuliers. Néanmoins, dans certaines empreintes digitales, le coeur et le delta ne sont pas facilement distingués et extraits. Par conséquent ces empreintes digitales ne sont pas exactement classées. Dans ce mémoire, nous concentrons notre attention, sur le système de classification des empreintes digitales. Nous présentons une nouvelle représentation d'empreintes digitales. Nous analysons d'abord les comportements de moments Gaussiens-Hermite dans l'image d'empreinte digitale. Une méthode basée sur l'ACP (l'analyse en composantes principales) est employée pour estimer la distribution des moments Gaussiens-Hermite d'image d'empreinte digitale. Nous montrons ensuite comment appliquer ces comportements de moments Gaussiens-Hermite pour segmenter l'image d'empreinte digitale et extraire les points singuliers. A la différence des autres méthodes pour extraire les points singuliers, notre algorithme peut détecter quatre types de points singuliers. Ces points singuliers représentent bien les caractéristiques globales de l'empreinte digitale. Enfin, nous établissons les règles de classification en termes de points singuliers et le modèle de direction les entourant. Les résultats expérimentaux prouvent que la méthode proposée est meilleure que les autres méthodes.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Tydrichová, Magdaléna. « Structural and algorithmic aspects of preference domain restrictions in collective decision making : contributions to the study of single-peaked and Euclidean preferences ». Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS048.

Texte intégral
Résumé :
Cette thèse étudie des aspects structurels et algorithmiques des restrictions de domaines de préférences, en se focalisant sur les préférences unimodales et les préférences Euclidiennes. Dans la première partie de la thèse, nous introduisons d'abord une généralisation des préférences unimodales sur des graphes quelconques, en se focalisant sur des aspects algorithmiques, notamment le problème de reconnaissance. Dans un deuxième temps, nous nous intéressons aux préférences presque unimodales. Plus précisément, nous proposons une nouvelle métrique d'unimodalité approchée et nous étudions ses propriétés théoriques et computationnelles. La deuxième partie de la thèse est consacrée à l'étude des préférences d-Euclidiennes (où d est la dimension) par rapport à différentes normes. Nous proposons d'abord une heuristique de reconnaissance des préférences 2-Euclidiennes par rapport à la norme l_2, et étudions son efficacité en pratique. Enfin, nous étudions des aspects structurels des préférences 2-Euclidiennes par rapport à la norme l_1
This thesis studies structural and algorithmic aspects of preference domain restrictions, namely single-peaked preferences and Euclidean preferences. In the first part of the thesis, we first introduce a generalization of the notion of single-peakedness on an arbitrary graph. We focus, in particular, on algorithmic aspects, namely the problem of recognition. The notion of nearly single-peakedness is then studied. More precisely, we introduce a new metric of nearly single-peakedness, and we study its theoretical and computational properties. The second part of the thesis is devoted to the study of d-Euclidean preferences (where d is the dimension of the real space) with respect to different norms. We first propose a heuristic algorithm for recognizing 2-Euclidean preferences with respect to the l_2 norm, and study its practical efficiency in practice. Finally, we focus on structural aspects of 2-Euclidean preferences with respect to the l_1 norm
Styles APA, Harvard, Vancouver, ISO, etc.
14

Celse, Benoît. « Reconnaissance tridimensionnelle en avant du front de taille par méthodes sismiques ». Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-261.pdf.

Texte intégral
Résumé :
Une nouvelle méthode de reconnaissance géophysique à l'avancement utilisant les ondes sismiques est proposée. Le dispositif nécessite un forage, instrumente d'hydrophones et des sources sont disposées le long du front de taille. Pour élargir le champ d'investigation et localiser les hétérogénéités majeures, nous proposons d'utiliser conjointement les ondes directes et réfléchies à l'aide de la tomographie réflexion. Le projet a été découpé en trois étapes. Une étude directe de sensibilité a permis de déterminer les caractéristiques des failles les plus facilement détectables, de caractériser les ondes réfléchies et de mettre au point un algorithme d'optimisation du dispositif. Celui-ci répond à plusieurs critères : optimisation du champ d'investigation, maximisation de l'énergie réfléchie et séparation des fenêtres temporelles d'arrivée des ondes d'interface et des ondes réfléchies. L'algorithme du recuit-simulé a alors été utilisé pour minimiser la fonctionnelle obtenue. A partir des enseignements de l'étude précédente, une stratégie de traitement du signal a ensuite été proposée et s'est montrée efficace sur des signaux numériques et réels. Nous avons vérifié que les filtres utilisés n'introduisaient pas d'artefacts sur les temps d'arrivée des ondes de compression directes (p) et réfléchies (pp). Cette information pouvait donc être utilisée dans un algorithme d'inversion : la tomographie réflexion. Cette méthode permet à la fois de localiser précisément un réflecteur majeur (faille, filon) et de déterminer finement le massif en avant du front de taille en déterminant une cartographie des vitesses, dont on pourra estimer les modules. Cette méthode tridimensionnelle a permis de localiser sur plusieurs sites des fractures et des hétérogénéités majeures.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Cazuguel, Guy. « Contribution a la definition de primitives dans des problemes de reconnaissance de formes ». Rennes 1, 1994. http://www.theses.fr/1994REN10076.

Texte intégral
Résumé :
Nous nous interessons a la definition des primitives dans des problemes relevant du domaine specifique de la reconnaissance des formes. Du point de vue du traitement numerique d'images, il s'agit de definir des representations des formes, manipulables par un calculateur, afin d'etre capable de les identifier dans une image numerique. Ces primitives peuvent etre d'ordre metrique, analytique, structurel ou symbolique. La difficulte ne reside pas simplement dans le choix de primitives accessibles au calculateur, mais aussi bien adaptees a l'objectif poursuivi et pour lesquelles existent des methodes de traitement permettant de mettre en place un processus decisionnel. Nous illustrons cette problematique a travers trois exemples: l'analyse de l'endothelium corneen humain, l'etude d'echantillons de larves de bivalves marins, la reconnaissance de chiffres manuscrits. Les deux premiers exemples procedent d'une demarche classique de definition de primitives par analyse des formes a identifier et classer. Dans le premier, nous definissons une primitive de segmentation qui est l'espace inter-cellulaire, pour laquelle nous proposons quelques methodes de reconnaissance. Dans le second, apres avoir determine les larves isolees en utilisant une transformation particuliere des images, nous utilisons une representation par descripteurs de fourier pour effectuer une datation des larves. Nous montrons les limites de cette demarche lorsque le probleme se complexifie, et etudions, dans le troisieme exemple, les possibilites offertes par un modele connexionniste, les cartes auto-adaptatives de kohonen, pour l'extraction automatique de primitives. Nous expliquons les limitations de ce modele et proposons des solutions pour ameliorer ses performances
Styles APA, Harvard, Vancouver, ISO, etc.
16

Abderrahmane, Zineb. « Visuo-Haptic recognition of daily-life objects : a contribution to the data scarcity problem ». Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS036/document.

Texte intégral
Résumé :
Il est important pour les robots de pouvoir reconnaître les objets rencontrés dans la vie quotidienne afin d’assurer leur autonomie. De nos jours, les robots sont équipés de capteurs sophistiqués permettant d’imiter le sens humain du toucher. C’est ce qui permet aux robots interagissant avec les objets de percevoir les propriétés (telles la texture, la rigidité et la matière) nécessaires pour leur reconnaissance. Dans cette thèse, notre but est d’exploiter les données haptiques issues de l’interaction robot-objet afin de reconnaître les objets de la vie quotidienne, et cela en utilisant les algorithmes d’apprentissage automatique. Le problème qui se pose est la difficulté de collecter suffisamment de données haptiques afin d’entraîner les algorithmes d’apprentissage supervisé sur tous les objets que le robot doit reconnaître. En effet, les objets de la vie quotidienne sont nombreux et l’interaction physique entre le robot et chaque objet pour la collection des données prend beaucoup de temps et d’efforts. Pour traiter ce problème, nous développons un système de reconnaissance haptique permettant de reconnaître des objets à partir d'aucune, de une seule, ou de plusieurs données d’entraînement. Enfin, nous intégrons la vision afin d’améliorer la reconnaissance d'objets lorsque le robot est équipé de caméras
Recognizing surrounding objects is an important skill for the autonomy of robots performing in daily-life. Nowadays robots are equipped with sophisticated sensors imitating the human sense of touch. This allows the recognition of an object based on information ensuing from robot-object physical interaction. Such information can include the object texture, compliance and material. In this thesis, we exploit haptic data to perform haptic recognition of daily life objects using machine learning techniques. The main challenge faced in our work is the difficulty of collecting a fair amount of haptic training data for all daily-life objects. This is due to the continuously growing number of objects and to the effort and time needed by the robot to physically interact with each object for data collection. We solve this problem by developing a haptic recognition framework capable of performing Zero-shot, One-shot and Multi-shot Learning. We also extend our framework by integrating vision to enhance the robot’s recognition performance, whenever such sense is available
Styles APA, Harvard, Vancouver, ISO, etc.
17

Pennec, Xavier. « L'incertitude dans les problèmes de reconnaissance et de recalage -- Applications en imagerie médicale et biologie moléculaire ». Phd thesis, Ecole Polytechnique X, 1996. http://tel.archives-ouvertes.fr/tel-00633175.

Texte intégral
Résumé :
LES PRIMITIVES GEOMETRIQUES USUELLES EN TRAITEMENT D'IMAGE TRIDIMENSIONNEL (POINTS, POINTS ORIENTES, REPERES) FORMENT UNE VARIETE QUI N'EST GENERALEMENT PAS UN ESPACE VECTORIEL, SUR LEQUEL AGIT UN GROUPE DE TRANSFORMATION QUI MODELISE LES DIFFERENTES PRISES DE VUE POSSIBLES DE L'IMAGE. LEUR MESURE EST, DE PLUS, INTRINSEQUEMENT INCERTAINE A CAUSE DE L'ACCUMULATION DES ERREURS ET DES IMPRECISIONS AU COURS DE LA CHAINE DE TRAITEMENT. LE BUT DE CE TRAVAIL EST DE GENERALISER A CES PRIMITIVES LES NOTIONS DE STATISTIQUES USUELLES AINSI QUE LES ALGORITHMES DE RECONNAISSANCE ET DE RECALAGE UTILISANT NORMALEMENT LES POINTS. LA PREMIERE PARTIE DE LA THESE EST CONSACREE AU DEVELOPPEMENT D'OUTILS MATHEMATIQUES POUR ABORDER CES PROBLEMES. NOUS MONTRONS TOUT D'ABORD QUE L'ON NE PEUT PAS CONSIDERER CES PRIMITIVES COMME DE SIMPLES VECTEURS, PUIS, SUR DES BASES DE GEOMETRIE RIEMANNIENNE, NOUS DEVELOPPONS UNE NOTION DE MOYENNE COHERENTE, PUIS DE MATRICE DE COVARIANCE. NOUS GENERALISONS ALORS D'AUTRES OPERATIONS STATISTIQUES, TELLES QUE LA DISTANCE DE MAHALANOBIS ET LE TEST DU CHI 2. ENFIN, NOUS MONTRONS COMMENT CETTE THEORIE PEUT ETRE APPLIQUEE ET IMPLANTEE EN MACHINE DANS UNE STRUCTURE ORIENTEE OBJET GENERIQUE. DANS LA SECONDE PARTIE DE LA THESE, NOUS DEVELOPPONS LES CALCULS RELATIFS A CE FORMALISME POUR LES ROTATIONS ET LES TRANSFORMATIONS RIGIDES AGISSANT SUR DIFFERENTS TYPES DE REPERES. APRES ANALYSE DES ALGORITHMES CLASSIQUES SUR LES POINTS, NOUS DEVELOPPONS DES ALGORITHMES DE RECALAGE GENERIQUES BASES SUR LES PRIMITIVES, ET NOUS PROPOSONS EN PARTICULIER DES METHODES POUR ESTIMER L'INCERTITUDE SUR LE RECALAGE OBTENU. NOUS EXPOSONS PARALLELEMENT UNE METHODE DE VALIDATION STATISTIQUE POUR CONFIRMER LA PRECISION DE CETTE ANALYSE, QUI MONTRE QU'UN RECALAGE D'UNE PRECISION BIEN INFERIEURE A LA TAILLE DU VOXEL PEUT ETRE OBTENUE DANS LE CAS DES IMAGES MEDICALES 3D. UN DEUXIEME VOLET DE L'ANALYSE STATISTIQUE CONCERNE LA ROBUSTESSE DES ALGORITHMES DE RECONNAISSANCE. LE CHAMP APPLICATIF QUE NOUS CONSIDERONS VA DU RECALAGE D'IMAGES MEDICALES TRIDIMENSIONNELLES A LA RECONNAISSANCE DE SOUS-STRUCTURES (3D) DANS LES PROTEINES ET SOULIGNE LA VALIDITE DE L'APPROCHE GENERIQUE ORIENTEE PRIMITIVE QUE NOUS AVONS CHOISIE POUR LE TRAITEMENT HAUT NIVEAU DE DONNEES GEOMETRIQUES.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Pétillot, Y. « Vers une implantation de corrélateurs optiques temps réel : applications a divers problèmes de reconnaissance des formes ». Brest, 1996. http://www.theses.fr/1996BRES2015.

Texte intégral
Résumé :
L’étude présentée dans ce mémoire a été réalisée dans le cadre d'un projet européen. Elle s'articule suivant deux axes principaux. D’une part, nous avons participé à la réalisation d'un corrélateur conjoint non linéaire temps réel à cristaux liquides ferroélectriques, et nous l'avons caractérise. D’autre part, bien que l'utilisation de cristaux liquides ferroélectriques permette de réaliser des systèmes optiques ayant des cadences de fonctionnement importantes, leur capacité de codage est extrêmement limitée, ce qui réduit le champ d'application des systèmes qui les utilisent. Le point clé de notre travail a consisté à prendre en compte les limitations dues à ces composants. Dans ce cadre, deux méthodes ont été particulièrement étudiées : une méthode de synthèse de filtres composites dans le cadre des architectures monovoies, et une méthode fondée sur l'utilisation d'arbres de décision binaires, dans le cas des architectures multivoies. La deuxième solution est fondée sur l'extraction de primitives par corrélation.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Dong, Yuan. « Modélisation probabiliste de classifieurs d’ensemble pour des problèmes à deux classes ». Thesis, Troyes, 2013. http://www.theses.fr/2013TROY0013/document.

Texte intégral
Résumé :
L'objectif de cette thèse est d'améliorer ou de préserver les performances d'un système décisionnel quand l’environnement peut impacter certains attributs de l'espace de représentation à un instant donné ou en fonction de la position géographique de l’observation. S'inspirant des méthodes d'ensemble, notre approche a consisté à prendre les décisions dans des sous-espaces de représentation résultant de projections de l'espace initial, espérant ainsi travailler dans des sous-espaces non impactés. La décision finale est alors prise par fusion des décisions individuelles. Dans ce contexte, trois méthodes de classification (one-class SVM, Kernel PCA et Kernel ECA) ont été testées en segmentation d'images texturées qui constitue un support applicatif parfaitement adéquat en raison des ruptures de modèle de texture aux frontières entre deux régions. Ensuite, nous avons proposé une nouvelle règle de fusion reposant sur un test du rapport de vraisemblance pour un ensemble de classifieurs indépendants. Par rapport au vote majoritaire, cette règle de fusion a montré de meilleures performances face à l'altération de l'espace de représentation. Enfin, nous avons établi un modèle conjoint pour l’ensemble des variables décisionnelles de Bernoulli corrélées associées aux décisions des classifieurs individuels. Cette modélisation doit permettre de lier les performances des classifieurs individuels à la performance de la règle de décision globale et d’étudier et de maîtriser l'impact des changements de l'espace initial sur la performance globale
The objective of this thesis is to improve or maintain the performance of a decision-making system when the environment can impact some attributes of the feature space at a given time or depending on the geographical location of the observation. Inspired by ensemble methods, our approach has been to make decisions in representation sub-spaces resulting of projections of the initial space, expecting that most of the subspaces are not impacted. The final decision is then made by fusing the individual decisions. In this context, three classification methods (one-class SVM, Kernel PCA and Kernel ECA) were tested on a textured images segmentation problem which is a perfectly adequate application support because of texture pattern changes at the border between two regions. Then, we proposed a new fusion rule based on a likelihood ratio test for a set of independent classifiers. Compared to the majority vote, this fusion rule showed better performance against the alteration of the performance space. Finally, we modeled the decision system using a joint model for all decisions based on the assumption that decisions of individual classifiers follow a correlated Bernoulli law. This model is intended to link the performance of individual classifiers to the performance of the overall decision rule and to investigate and control the impact of changes in the original space on the overall performance
Styles APA, Harvard, Vancouver, ISO, etc.
20

Bekkouche, Abdelmalek. « Sécurité des grands barrages en terre : approche probabiliste des problèmes d'écoulement liés aux reconnaissances et contrôles ». Châtenay-Malabry, Ecole centrale de Paris, 1987. http://www.theses.fr/1987ECAP0038.

Texte intégral
Résumé :
Etude de l'état critique d'érosion interne des grands barrages (données du barrage de grand' maison) : percolation interne, résistance à l'érosion. Problèmes de contrôle de l'homogénéité du noyau (matériau et compactage): application de l'analyse factorielle, optimisation du nombre d'essais de cisaillement par l'analyse de variance-covariance et l'estimation bayesienne ; possibilités de calcul de performance par éléments finis stochastiques.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Pennec, Xavier. « L'incertitude dans les problemes de reconnaissance et de recalage. Application en imagerie medicale et biologie moleculaire ». Palaiseau, Ecole polytechnique, 1996. https://pastel.archives-ouvertes.fr/tel-00633175.

Texte intégral
Résumé :
Les primitives geometriques usuelles en traitement d'image tridimensionnel (points, points orientes, reperes) forment une variete qui n'est generalement pas un espace vectoriel, sur lequel agit un groupe de transformation qui modelise les differentes prises de vue possibles de l'image. Leur mesure est, de plus, intrinsequement incertaine a cause de l'accumulation des erreurs et des imprecisions au cours de la chaine de traitement. Le but de ce travail est de generaliser a ces primitives les notions de statistiques usuelles ainsi que les algorithmes de reconnaissance et de recalage utilisant normalement les points. La premiere partie de la these est consacree au developpement d'outils mathematiques pour aborder ces problemes. Nous montrons tout d'abord que l'on ne peut pas considerer ces primitives comme de simples vecteurs, puis, sur des bases de geometrie riemannienne, nous developpons une notion de moyenne coherente, puis de matrice de covariance. Nous generalisons alors d'autres operations statistiques, telles que la distance de mahalanobis et le test du chi 2. Enfin, nous montrons comment cette theorie peut etre appliquee et implantee en machine dans une structure orientee objet generique. Dans la seconde partie de la these, nous developpons les calculs relatifs a ce formalisme pour les rotations et les transformations rigides agissant sur differents types de reperes. Apres analyse des algorithmes classiques sur les points, nous developpons des algorithmes de recalage generiques bases sur les primitives, et nous proposons en particulier des methodes pour estimer l'incertitude sur le recalage obtenu. Nous exposons parallelement une methode de validation statistique pour confirmer la precision de cette analyse, qui montre qu'un recalage d'une precision bien inferieure a la taille du voxel peut etre obtenue dans le cas des images medicales 3d. Un deuxieme volet de l'analyse statistique concerne la robustesse des algorithmes de reconnaissance. Le champ applicatif que nous considerons va du recalage d'images medicales tridimensionnelles a la reconnaissance de sous-structures (3d) dans les proteines et souligne la validite de l'approche generique orientee primitive que nous avons choisie pour le traitement haut niveau de donnees geometriques
Styles APA, Harvard, Vancouver, ISO, etc.
22

Gauthier, Mathieu. « La philosophie sociale d'Axel Honneth. La théorie de la reconnaissance et l'analyse des pathologies sociales ». Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27493/27493.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
23

Semé, David. « Algorithmique parallele pour des problemes de reconnaissance de formes et de motifs sur les modeles systolique et bsr ». Amiens, 1999. http://www.theses.fr/1999AMIE0112.

Texte intégral
Résumé :
Le concept de parallelisme rompt avec l'approche classique qui consiste a gagner de la vitesse en effectuant plus rapidement chaque operation, approche bornee par les lois de la physique. En calcul parallele, le gain de vitesse provient de la realisation simultanee de plusieurs operations. De nombreux problemes ont ainsi ete etudies sur differents modeles paralleles. Je me suis donc interesse a des problemes de reconnaissance de formes et de motifs sur les modeles bsr et systolique. Aussi, j'ai resolu des problemes de reconnaissance de formes que sont la retropropagation du gradient (reseaux de neurones) sur reseaux systoliques ainsi que des problemes geometriques (localisation d'un point, l'enveloppe convexe, et le plus petit rectangle cloturant) sur le modele bsr. En ce qui concerne la reconnaissance de motifs je me suis interesse au probleme de la plus longue sous-suite commune a deux mots puis sa generalisation a k mots, l'alignement de deux sequences et la recherche de repetitions dans un mot a la fois sur le modele systolique et sur le modele bsr. Tous ces algorithmes sont optimaux pour certains, efficaces pour d'autres et dans tous les cas originaux.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Hanskov, Palm Jakob. « Route Planning and Design of Autonomous Underwater Mine Reconnaissance Through Multi-Vehicle Cooperation ». Thesis, Linköpings universitet, Fordonssystem, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-172015.

Texte intégral
Résumé :
Autonomous underwater vehicles have become a popular countermeasure to naval mines. Saab’s AUV62-MR detects, locates and identifies mine-like objects through three phases. By extracting functionality from the AUV62-MR and placing it on a second vehicle, it is suggested that the second and third phases can be performed in parallel. This thesis investigates how to design the second vehicle so that the runtime of the mine reconnaissance process is minimized. A simulation framework is implemented to simulate the second and third phases of the mine reconnaissance process in order to test various design choices. The vehicle design choices in focus are the size and the route planning of the second vehicle. The route-planning algorithms investigated in this thesis are a nearest neighbour algorithm, a simulated annealing algorithm, an alternating algorithm, a genetic algorithm and a proposed Dubins simulated annealing algorithm. The algorithms are evaluated both in a static environment and in the simulation framework. Two different vehicle sizes are investigated, a small and a large, by evaluating their performances in the simulation framework. This thesis takes into account the limited travelling distance of the vehicle and implements a k-means clustering algorithm to help the route planner determine which mine-like objects can be scanned without exceeding the distance limit. The simulation framework is also used to evaluate whether parallel execution of the second and third phases outperforms the current sequential execution. The performance evaluation shows that a major reduction in runtime can be gained by performing the two phases in parallel. The Dubins simulated annealing algorithm on average produces the shortest paths and is considered the preferred route-planning algorithm according to the performance evaluation. It also indicates that a small vehicle size results in a reduced runtime compared to a larger vehicle.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Gigan, Daniel. « Modélisation des comportements d'un pilote expert en situation de collision en vol vers une nouvelle technologie "voir et éviter" pour les drones : Pour un fonctionnalisme holistique à vocation intégrative ». Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0022.

Texte intégral
Résumé :
Le principe du “Voir et Eviter” est un principe essentiel pour la sécurité de l'espace aérienet nécessaire pour l'insertion des drones dans la Circulation Aérienne Générale (CAG). Lessolutions actuelles ne permettent pas toujours d'appliquer le principe du "Voir et Eviter" etn'assurent pas, par leurs actions d'évitements, une cohabitation sans risques des drones et desavions pilotés dans la CAG. Ces mêmes solutions ne permettent pas, avec un seul capteurpassif, la détermination, à tout moment, du temps restant avant collision. Ce temps estessentiel pour qualifier la dangerosité de la situation de collision et adapter, en conséquencede cette dangerosité, le comportement d'évitement. Aussi, pouvoir faire appliquer à unemachine le principe du "Voir et Eviter" tout en permettant une cohabitation sans risquesimplique un paradigme de conception basé sur la modélisation de l'être humain expert del'espace aérien, le pilote. Un tel paradigme s'applique d'ailleurs à toute problématiquenécessitant une cohabitation homme machine sans risque.Aussi, l'objectif de cette thèse est la modélisation des comportements d'un pilote expert ensituation de collision en vol. Cette modélisation permet de poser les premières basestechnologiques pour l'élaboration d'un nouveau système “Voir et Eviter” répondant auproblème d'intégration des machines dans la CAG.La modélisation proposée, résultat d'une démarche intégrative, s'appuie sur unedescription des processus cognitifs et des processus de traitement de l'information ainsi quesur l'organisation des unités ou systèmes qui encapsulent ces traitements. L'ensemble des cessystèmes et processus permet la résolution de problèmes et amène au comportementobservable qui est la solution du ou des problèmes posés par ou au travers de l'environnement.Cela a permis, notamment, la construction d'un modèle générique du processus cognitif etsensoriel d'identification par catégorisation et/ou classification d'objets. Cette modélisations'appuie mathématiquement sur les théories de régression non linéaire et sur l'utilisation desméthodes numériques pour la résolution de problèmes d'optimisation.Le nouveau système "Voir et Eviter" issu de cette modélisation, construit à partir d'unsimple capteur optique passif, émule, par des algorithmes simples, les processus de détection,de reconnaissance et de sélection d'une action amenant au comportement d'évitement dans unesituation de collision face à face avec un mobile protagoniste. Grâce au modèle générique decatégorisation et/ou de classification, le principal résultat technologique de cette thèse, qui estaussi la principale qualité de ce nouveau système "Voir et Eviter" proposé, est sa capacité àdéterminer, à tout moment, le temps restant avant la collision, avec un seul capteur passif. Deplus, par sa conception (bio et psycho mimétique), ce nouveau système pourrait bien poser lespremières bases d'une démarche de certification type Equivalent Level Of Safety (ELOS).Celle-ci permettrait alors une validation sécuritaire d'un système "Voir et Eviter" parcomparaison avec les pilotes de la CAG qui sont, par ailleurs, les véritables éléments desécurité de dernier recours de l'espace aérien actuel
The aim of this doctoral thesis is the modeling of expert pilot behaviors in flight collisions. This modeling gives the first echnologic steps to elaborate a new "sense and avoid" system allowing the future integration of Unmanned Air Vehicles in eneral air traffic. The proposed modeling is the result of global and holistic way and describes the cognitive process and he architecture of systems allowing the expression of these cognitive processes. This model allows solving the collision problem thanks to an observable and adapted piloted behavior. Besides a generic modeling of cognitive process of ategorization has been built and based on non linear regression theory and numeric methods for the resolution of ptimization problems.hanks to this global modeling, this new "sense and avoid" system is made of a simple passive optic sensor and it emulates he detection process, the recognition process and the and the actions selection process allowing the resolution of collision problem by a adapted piloted behavior. Thanks to the generic categorization modeling, the main technologic result is to be ble to determinate the Time To Collision (ITC) with a passive sensor. The determination of the TTC is essential for the 'sense and avoid" systems to get the level safety certification required to integrate drones in general air traffic
Styles APA, Harvard, Vancouver, ISO, etc.
26

René, de Cotret Sophie. « Etude de l'influence des variables : indice de proportionnalité du thème et nombre de couples de données sur la reconnaissance, le traitement et la compréhension de problèmes de proportionnalité chez des élèves de 13-14 ans ». Grenoble 1, 1991. http://www.theses.fr/1991GRE10024.

Texte intégral
Résumé :
Apres avoir constate qu'avec les memes donnees certains problemes de proportionnalite etaient beaucoup mieux reussis que d'autres par des eleves du premier cycle du secondaire, nous avons voulu savoir si cette meilleure reussite pouvait provenir du fait que certains themes (par exemple, un probleme de vitesse, de robinets, de prix) suggeraient plus naturellement que d'autres une perception proportionnelle. Nous avons donc realise une premiere experimentation sur ce sujet. Il est apparu qu'effectivement certains themes etaient plus facilement percus comme proportionnels par les eleves. Cependant, cette reconnaissance de la proportionnalite ne conduit pas necessairement a un traitement proportionnel, d'autres facteurs entrant en jeu. Une seconde experimentation a ete elaboree afin de voir dans quelle mesure l'ajout d'un couple de donnees pouvait preciser la prorportionnalite du probleme, tout en favorisant un traitement proportionnel. Cette experimentation nous a permis d'observer que l'introduction d'un troisieme couple de donnees permettait aux eleves d'invalider leurs procedures additives fausses pour les amener vers des procedures proportionnelles. De plus, le troisieme couple a permis aux eleves de mettre en evidence les liens unissant les traitements de types scalaire et fonction, ce qui les a conduits a une meilleure comprehension des relations proportionnelles. Finalement, en etudiant les procedures des eleves, nous avons pu degager un processus de modelisation qui aurait avantage a etre exploite pour l'enseignement des proportions et des mathematiques en general
Styles APA, Harvard, Vancouver, ISO, etc.
27

El, Ferchichi Sabra. « Sélection et extraction d'attributs pour les problèmes de classification ». Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10042/document.

Texte intégral
Résumé :
Les progrès scientifiques réalisés ces dernières années ont produit des bases de données de plus en plus grandes et complexes. Ceci amène certains classificateurs à générer des règles de classification basées sur des attributs non pertinents, et dégrader ainsi la qualité de classification et la capacité de généralisation. Dans ce contexte, nous proposons une nouvelle méthode pour l’extraction d’attributs afin d’améliorer la qualité de la classification. Notre méthode consiste à effectuer une classification non supervisée des attributs afin de retrouver les groupements d’attributs similaires. Une nouvelle mesure de similarité à base d’analyse de tendance est alors conçue afin de retrouver les attributs similaires dans leur comportement. En effet, notre méthode cherche à réduire l’information redondante tout en identifiant les tendances similaires dans les vecteurs attributs tout au long de la base de données. Suite à la formation des clusters, une transformation linéaire sera appliquée sur les attributs dans chaque groupement pour obtenir un représentant unique. Afin de retrouver un centre optimal, nous proposons de maximiser l’Information Mutuelle (IM) comme mesure de dépendance entre les groupements d’attributs et leur centre recherché. Des expériences réalisées sur des bases de données réelles et artificielles montrent que notre méthode atteint de bonnes performances de classification en comparaison avec d’autres méthodes d’extraction d’attributs. Notre méthode a été également appliquée sur le diagnostic industriel d’un procédé chimique complexe Tennessee Eastman Process (TEP)
Scientific advances in recent years have produced databases increasingly large and complex. This brings some classifiers to generate classification rules based on irrelevant features, and thus degrade the quality of classification and generalization ability. In this context, we propose a new method for extracting features to improve the quality of classification. Our method performs a clustering of features to find groups of similar features. A new similarity measure based on trend analysis is then designed to find similarity between features in their behavior. Indeed, our method aims to reduce redundant information while identifying similar trends in features vectors throughout the database. Following the construction of clusters, a linear transformation is applied on each group to obtain a single representative. To find an optimal center, we propose to maximize the Mutual Information (IM) as a measure of dependency between groups of features and the desired center. Experiments on real and synthetic data show that our method achieved good classification performance in comparison with other methods of extracting features. Our method has also been applied to the industrial diagnosis of a complex chemical process Tennessee Eastman Process (TEP)
Styles APA, Harvard, Vancouver, ISO, etc.
28

Santiago, de Freitas Antonio de Padua. « En quête de reconnaissance : stratégie d'insertion et culture urbaine l'exemple de la favela de Pirambu au nordeste du Brésil (1930-1970) ». Paris 4, 1999. http://www.theses.fr/1999PA040001.

Texte intégral
Résumé :
Ce travail est centré sur la naissance de la favela de Pirambu comme espace stratégique des pauvres en quête de reconnaissance et d'insertion dans la ville de Fortaleza. La période étudié s'étend de 1930 à 1970. Nous ferons, cependant, une incursion dans la période précédente afin de comprendre la ségrégation sociale et spatiale dans la ville. Nous étudierons en suite, le contexte dans lequel a surgi la favela de Pirambu. Nous analyserons la constitution du savoir politique de ses habitants, élaboré au contact des institutions qui se sont presentées comme médiatrices des intérêts des habitants face à l'état. En ce sens, notre travail cherchera à montrer l'apport des communistes (1945-1961) et celui de l'église catholique en partenariat avec l'école de service social de Fortaleza (1955-1970). Il faudra enfin analyser le regard que portaient les assistantes sociales et les habitants sur l'histoire de Pirambu.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Darwiche, Mostafa. « When operations research meets structural pattern recognition : on the solution of error-tolerant graph matching problems ». Thesis, Tours, 2018. http://www.theses.fr/2018TOUR4022/document.

Texte intégral
Résumé :
Cette thèse se situe à l’intersection de deux domaines de recherche scientifique la Reconnaissance d’Objets Structurels (ROS) et la Recherche Opérationnelle (RO). Le premier consiste à rendre la machine plus intelligente et à reconnaître les objets, en particulier ceux basés sur les graphes. Alors que le second se focalise sur la résolution de problèmes d’optimisation combinatoire difficiles. L’idée principale de cette thèse est de combiner les connaissances de ces deux domaines. Parmi les problèmes difficiles existants en ROS, le problème de la distance d’édition entre graphes (DEG) a été sélectionné comme le cœur de ce travail. Les contributions portent sur la conception de méthodes adoptées du domaine RO pour la résolution du problème de DEG. Explicitement, des nouveaux modèles linéaires en nombre entiers et des matheuristiques ont été développé à cet effet et de très bons résultats ont été obtenus par rapport à des approches existantes
This thesis is focused on Graph Matching (GM) problems and in particular the Graph Edit Distance (GED) problems. There is a growing interest in these problems due to their numerous applications in different research domains, e.g. biology, chemistry, computer vision, etc. However, these problems are known to be complex and hard to solve, as the GED is a NP-hard problem. The main objectives sought in this thesis, are to develop methods for solving GED problems to optimality and/or heuristically. Operations Research (OR) field offers a wide range of exact and heuristic algorithms that have accomplished very good results when solving optimization problems. So, basically all the contributions presented in thesis are methods inspired from OR field. The exact methods are designed based on deep analysis and understanding of the problem, and are presented as Mixed Integer Linear Program (MILP) formulations. The proposed heuristic approaches are adapted versions of existing MILP-based heuristics (also known as matheuristics), by considering problem-dependent information to improve their performances and accuracy
Styles APA, Harvard, Vancouver, ISO, etc.
30

Zoghlami, Naouel. « Processus ascendants et descendants en compréhension de l'oral en langue étrangère - Problèmes et retombées didactiques pour la compréhension de l'anglais ». Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080041.

Texte intégral
Résumé :
Cette thèse s’intéresse à la relation complexe entre processus ascendants (bottom-up) et processus descendants (top-down) dans la compréhension de l’oral L2 ; c’est-à-dire entre l’utilisation du signal sonore et de l’input linguistique d’une part, et l’intégration de connaissances diverses (linguistiques, discursives, pragmatiques, générales) d’autre part. Malgré de nombreux travaux en psycholinguistique, en acquisition des langues étrangères (L2) et en didactique (par exemple, Cutler & Clifton, 1999 ; Field, 2008; Rost, 2002 ; Brown, 1990), notre connaissance des processus cognitifs complexes de l’écoute ainsi que l’effet de certains facteurs sur la compréhension de l’oral restent à approfondir. Une appréciation plus fine de ces processus est indispensable aux questions relatives à l’enseignement et à l’apprentissage de la compréhension de l’oral en L2.Partant du principe que l’écoute a la même architecture cognitive en L1 et L2, nous commençons par un résumé – et une synthèse – des modèles psycholinguistiques récents de la compréhension de l’oral en L1. Nous examinons également les principaux facteurs rendant la compréhension difficile. Notre résumé des études en L2 consacrées au rôle de l'information descendante et au comportement stratégique des auditeurs L2 souligne la contribution importante de la métacognition. Nous tenterons donc ici de clarifier un certain flou terminologique qui caractérise ces travaux, et nous proposerons un modèle qui fait part de la métacognition dans la compréhension unidirectionnelle de l’oral en L2. Nous présentons ensuite les résultats d'une étude que nous avons menée pour analyser la contribution exacte de certains facteurs à l'écoute en L2.Les participants à cette étude sont des enseignants (n=23) et surtout des apprenants (n=226) français et tunisiens de l’anglais. En s’appuyant sur des méthodes multiples, à la fois quantitatives (différent tests et questionnaires) et qualitatives (questionnaires, tâches de réflexion à haute voix - Ericsson & Simon, 1993 - et de dévoilement graduel - gating, Grosjean, 1980), nous nous interrogeons: 1) sur les facteurs perçus par les apprenants et les enseignants comme étant déterminants dans la compréhension de l’anglais oral ; 2) sur la contribution relative de la compétence linguistique en L2, la discrimination auditive, la reconnaissance lexicale, et les compétences en méta-compréhension à une compréhension auditive réussie; 3) sur les problèmes que rencontrent nos auditeurs L2 lors de l’écoute, et sur les comportements stratégiques adoptés pour y faire face. Nous regardons plus particulièrement (pour ces différents paramètres) les différents niveaux de compétence en compréhension des sujets (avec une analyse poussée des auditeurs compétents et des auditeurs moins-compétents), ainsi qu’à de possibles influences de deux langues maternelles distinctes (français vs arabe tunisien). Nos analyses montrent : 1) ce que les apprenants et les enseignant perçoivent comme facteurs influant la compréhension de l’oral diffère relativement de ce qui la rend réellement problématique; 2) que la reconnaissance des mots et la connaissance lexicale contribuent significativement à la variation dans la compréhension, avec la reconnaissance des mots étant le prédicteur le plus fort ; 3) que les problèmes rencontrés en temps réel sont principalement de bas-niveau (segmentation de la parole), et que si les stratégies généralement contribuent à la compréhension, elles ne sont pas discriminatoires. Ce qui distingue donc l’auditeur expert du novice est son traitement formel (plus efficace et automatique) et non pas stratégique de l’information orale. Ces résultats sont discutés en rapport avec notre cadre théorique et selon une perspective pédagogique
This thesis focuses on the complex relationship between bottom-up and top-down processes in L2 speech comprehension; i.e. between the use of the signal and the linguistic input on one hand, and the integration of various types of knowledge (linguistic, discourse, pragmatic, general) on the other hand. Despite a large body of research on the cognitive processes underlying listening in psycholinguistics, foreign language (L2) acquisition and teaching (e.g., Cutler & Clifton, 1999; Field, 2008a; Rost, 2002; Brown, 1990), there are still gaps in our understanding of these processes and the impact certain factors have on listening comprehension. Assuming that L1 and L2 listening follow the same cognitive architecture, we first review recent psycholinguistic models of L1 listening. We also examine the main factors constraining L2 listening comprehension. As our summary of the few SLA studies that have investigated the role of bottom-up information and the strategic behavior of L2 listeners points to the important contribution of metacognition, we clarify the terminological fuzziness characterizing this concept, and propose a model of metacognition in real-world unidirectional L2 listening. We then present the results of a study that we conducted to investigate the exact contribution of these different factors to L2 listening. The participants in this study were EFL French and Tunisian teachers (n=23) and learners (n=226). Using mixed quantitative (different tests and questionnaires) and qualitative (protocol analysis and gating experiments - Ericsson & Simon, 1993; Grosjean, 1980) methods, our aim was to investigate: 1) the factors perceived by learners and teachers as influencing L2 listening; 2) the relative contribution of linguistic knowledge, auditory discrimination, spoken word recognition (SWR), and meta-comprehension knowledge to successful L2 listening; 3) on-line listening problems and strategy use. For all of these parameters, we looked more closely at different levels of listening proficiency (various analyses of the performance of skilled and unskilled L2 listeners), as well as the possible influence of the two L1s (French and Tunisian Arabic) involved in the study.Our analyses show that: 1) there is a general discrepancy between what is perceived as making L2 listening difficult and what really renders it problematic; 2) SWR and vocabulary knowledge contribute significantly to the variance in L2 listening, with SWR being a stronger predictor; 3) listening problems encountered on-line are mainly lower-level (segmentation) and, although strategies contribute to speech comprehension, they are not discriminatory. What characterizes a proficient L2 listener seems to be accurate formal processing, not strategic processing of oral input. The findings are discussed from a theoretical and pedagogical perspective. Keywords: listening comprehension, French and Tunisian learners of L2 English, bottom-up and top-down processes, formal processing, integration and situation model, attentional resources, gating, protocol analysis, comparative analysis
Styles APA, Harvard, Vancouver, ISO, etc.
31

Cattin, Viviane. « Traitement et exploitation des signaux issus d'un imageur électromagnétique ». Grenoble INPG, 1998. http://www.theses.fr/1998INPG0128.

Texte intégral
Résumé :
Un imageur electromagnetique haute resolution est envisage afin de detecter et de localiser des objets situes dans des structures heterogenes. Il doit permettre la mesure non destructive de contrastes en permittivite et en conductivite, a une profondeur d'investigation de quelques decimetres, avec une resolution de l'ordre du centimetre. Dans ce but, nous cherchons a identifier les points delicats de son developpement. Afin de choisir le systeme et interpreter sa reponse, nous etudions la caracterisation electromagnetique de materiaux, et les phenomenes de reflexions secondaires et de resonance presents dans les milieux formant les structures considerees. Ceci nous permet de specifier un systeme electromagnetique base sur le principe d'un radar a sauts de frequence. Les antennes etant placees a proximite du milieu, nous nous interessons aux phenomenes de couplage afin d'evaluer quelles sont les perturbations induites sur une reponse radar. Des algorithmes d'imagerie qualitative (focalisation par synthese d'ouverture, migration f-k, tomographie microonde) sont utilises afin d'interpreter la reponse de l'imageur sous forme de courants induits. Ils permettent de positionner les structures et les objets cherches. Nous proposons l'emploi de methodes parametriques (methode de pencil) afin d'ameliorer la resolution. Enfin, des experimentations sur des milieux heterogenes avec differentes polarisations et bandes de frequence montrent la validite et les limites de cet imageur.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Lima-Neto, Fernando Cardoso. « Le sens des ONG au Brésil : justice sociale, philanthropie et écologie ». Paris, EHESS, 2013. http://www.theses.fr/2013EHES0032.

Texte intégral
Résumé :
L'objet de cette thèse est la notion d'organisation non gouvernementale (ONG) au Brésil. L'objectif principal est d'identifier les valeurs sociales qui confèrent du sens à cette notion, en analysant ses variations de significations au cours de l'histoire. Dans la première partie de la thèse, je propose une approche macro-sociologique pour traiter de la formation du champ des ONG au Brésil. Les rapports entre l'Église, l'État et la société dans la promotion de l'aide sociale au Brésil ont consolidé les trois principales valeurs qui confèrent du sens à l'expérience des ONC : la philanthropie, la justice sociale et l'écologie. Dans la deuxième partie, je propose une approche micro-sociologique pour interpréter ces valeurs à la lumière de quatre trajectoires individuelles. Chaque trajectoire illustre un point de croisement différent entre les processus macro historiques de formation des trois valeurs sociales analysées dans la Partie 1. Les résultats de la recherche indiquent les valeurs de la justice sociale, la philanthropie et l'écologie comme les principaux codes culturels qui confèrent du sens au phénomène des ONG au Brésil. Les deux premiers ont une connexion historique commune: les organisations des laïcs catholiques qui ont toujours été présents dans le contexte de promotion de l'aide sociale au Brésil. La consécration de la valeur de l'écologie, quant à elle, concerne un autre contexte historique, celui des décennies de 1990 et 2000
The object of this thesis is the notion of Non Governmental Organization (NGO) in Brazil. The main objective is to identify the social values that gives meaning to this notion by analyzing its variations of meaning throughout history. In the first part of the thesis, l propose a macro sociological approach in order to deal with the formation of the NGO field in Brazil. The connexions betweenchurch, state and society on the promotion of social welfare in Brazil promoted the three major social values that provide meaning to the NGOs' experience : social justice, philanthropy and ecology. In the second part, l propose a micro sociological approach ir order to interpret these values in the light of four individual trajectories. Each trajectory represents a different point of intersection between the various macro historical processes that consolidated the NGO field, as discussedin Part 1. The research results indicate the social value' of social justice, philanthropy and ecology as the main cultural codes that give meaning to the phenomenon of NGOs in Brazil. The first two have a common historical origin, since the organizations of lay catholics were always present in the context of promoting social welfare in Brazil. In turn, the consecration of the value of ecology concerns a different context, dating mainly from the decades of 1990 and 2000
Styles APA, Harvard, Vancouver, ISO, etc.
33

Schmidt, Ursula. « Motifs inévitables dans les mots ». Paris 6, 1986. http://www.theses.fr/1986PA066303.

Texte intégral
Résumé :
Nous montrons que sur un alphabet a n lettres, il n'existe qu'un seul motif inévitable de longueur 2n-1, et que c'est une quasi-puissance. Par ailleurs, nous caractérisons complètement les motifs inévitables de longueur 2(n)-2 et 2(n)-3 ainsi que d'autres familles de motifs inévitables. Ensuite, nous calculons en temps linéaire l'ordre de quasi-puissance d'un mot ainsi que l'ordre de tous ses facteurs gauches. En utilisant le transducteur des suffixes, nous avons pu calculer en temps linéaire l'ordre de la plus grande pseudo-puissance qui est facteur d'un mot. Enfin, nous prouvons que tout motif à deux lettres de longueur supérieure ou égale à 13 est évitable sur un alphabet a deux lettres.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Paniagua, Humeres Roxana. « "Nous voulons être visibles" : l'importance du problème de la reconnaissance des autochtones pour la viabilité de l'État bolivien ». Thèse, 2013. http://www.archipel.uqam.ca/5510/1/D2529.pdf.

Texte intégral
Résumé :
Ma thèse a pour thème la lutte pour la reconnaissance menée dans le cadre d'un État multinational qui est aujourd'hui institué en Bolivie comme modèle d'organisation politique. Parler de reconnaissance m'amènera à parler également de majorités traitées comme « minorités » nationales à l'intérieur de l'État-nation, et plus particulièrement de la relation qu'ont entretenue les autochtones boliviens avec l'État et la société. Pour moi, parler de reconnaissance suppose qu'il faut réfléchir sur les asymétries créées durant la colonie et renforcées par le système libéral et sa gouvernance dans la République. Les asymétries auxquelles je fais référence se fondent entre autres sur la différenciation d'application et de distribution de droits qui a nui l'autonomie des individus et particulièrement celle des Autochtones. Le vécu des autochtones boliviens s'est passé dans un cadre de déni de justice. En ce sens, l'injustice - ou déni de justice - est un élément crucial dans la mesure où elle permet d'organiser et de structurer l'ensemble des règles (Constitution politique de l'État et diverses lois) justifiant la discrimination, l'exclusion, la disqualification et l'invisibilité des Autochtones. Par ailleurs, le mépris et le déni de justice ont été les éléments ayant mobilisé les méprisés autour de la lutte pour la reconnaissance. C'est pour cela qu'à juste titre Nancy Fraser signale que « c'est à partir de l'injustice vécue que se déploie la lutte pour la reconnaissance » (Fraser 2002) de tous ces groupes marginalisés et méprisés (femmes, minorités visibles, homosexuels, trans et autochtones). J'ai dressé une analyse sociohistorique de la relation des autochtones avec l'État (au sens large : État colonial et républicain) pour examiner la non-reconnaissance dans le contexte. Je montre que les différents rapports souvent conflictuels entre les institutions et les Autochtones le sont en raison du refus de reconnaissance des cultures autochtones. J'ai également analysé les différentes constitutions du pays - dix-sept en tout - qui montrent une répétition sinon une résistance à intégrer les Autochtones. On voit notamment très clairement à travers l'article de la citoyenneté que l'on renforce l'exclusion de l'Indien. J'analyse aussi ce que j'ai appelé l'exclusion imaginaire à travers l'actualité bolivienne où l'on voit émerger de manière frappante un racisme et une discrimination sans gêne et où l'on procède à la disqualification de l'Indien. Enfin, étant donné que les mouvements sociaux et autochtones ont modifié le statu quo, on assiste aujourd'hui à une refonte de fond en comble du cadre normatif qui a permis, entre autres, l'égalisation des droits (quoique pour certaines nations cela soit encore formel), mais qui est en train d'être révoqué par les personnes ayant souffert du déni de justice. J'affirme dans ma thèse que ce cadre normatif n'est pas le seul garant de la « vie ensemble », mais qu'il constitue néanmoins un pas important dans la « bonne direction » - d'autant plus que la société bolivienne nécessitait un cadre permettant le déploiement de ses différentes nations (au nombre de 36 selon la Nouvelle Constitution politique de l'État). C'est à la lumière de l'actualité politique que j'ai pu faire dans cette thèse une évaluation de ce que les Autochtones ont appelé la Refondation du pays, même si l'actualité dépasse aujourd'hui l'étude effectuée. Selon les Autochtones, le cadre normatif aurait permis un premier pas vers la refondation du pays. Toutefois, si la refondation suppose pour moi la reconnaissance, il s'agit d'un processus à faire, à construire, et donc d'un processus social. La reconnaissance serait en fin de compte la possibilité du « vivre bien » selon les formes traditionnelles autochtones de partage et de respect, même si les 182 années de vie en marge sont difficiles à effacer. Les relations sociales restent tendues et le gouvernement d'Evo Morales ne parvient pas toujours à respecter les principes du vivre ensemble. Plusieurs groupes autochtones critiquent farouchement sa position, ce que j'ai analysé dans le dernier chapitre de cette thèse. C'est ainsi que j'ai choisi, afin de parler de la reconnaissance, d'examiner le chapitre IV de la Phénoménologie de l'esprit de Hegel, lequel explique en fait la non-reconnaissance en montrant les rapports de domination qui en découlent. J'ai complété ce chapitre avec une discussion plus actuelle sur la reconnaissance à travers Taylor (1997), Honneth (2001), Kymlicka (2002) et Fraser (2005). ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Reconnaissance, non-reconnaissance, Bolivie, autochtones, mouvements autochtones, mouvements sociaux, déni de justice, exclusion imaginaire, exclusion juridique, refondation, décolonisation, constitution politique, plurinational, pluriethnique
Styles APA, Harvard, Vancouver, ISO, etc.
35

Lachaud, Christian. « La prégnance perceptive des mots parlés : une réponse au problème de la segmentation lexicale ? » Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00419056.

Texte intégral
Résumé :
Reconnaître des mots parlés implique de résoudre un problème de localisation de frontières lexicales dans le flux sonore. La segmentation lexicale est envisagée dans ce travail de recherche comme résultant du guidage ascendant des traitements par la prosodie, et descendant par la structure du lexique.
Les résultats présentés montrent :
- qu'un code prososyllabique structure le signal de parole et contraint fortement le traitement lexical;
- que la présence d'une superposition lexicale à l'initiale d'un mot facilite sa reconnaissance.
SLEXS, un modèle mathématique de prégnance perceptive des mots parlés, est proposé pour expliquer ce phénomène de facilitation, qui serait lié à un processus récursif de construction du percept. Aucune des données obtenues ne permet de conclure que la compétition lexicale soit un mécanisme essentiel lors de la reconnaissance des mots parlés.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Lemire, Auclair Émilie. « Les effets du rétablissement comme approche thérapeutique sur les processus de lutte à la stigmatisation de personnes vivant avec un problème de santé mentale ». Mémoire, 2013. http://www.archipel.uqam.ca/5395/1/M12888.pdf.

Texte intégral
Résumé :
Le rétablissement, comme nouvelle philosophie d'intervention dans le champ de la santé mentale, nous invite à réfléchir l'intégration sociale sous un angle particulier, soit celui de l'épanouissement personnel : il ne suffit plus de s'inscrire dans un mode de vie normatif aux plans matériel, économique et social. Le rétablissement implique un processus individuel visant notamment un travail de restauration identitaire où l'individu devient acteur, « [engageant] ses propres ressources afin de développer des initiatives et élaborer un projet de vie » (Soulet et Châtel, 2001 : 186). En dépit de son rôle actif vers le mieux-être, l'individu voit également sa trajectoire balisée par une multitude de cadres sociaux : une histoire familiale, des relations sociales, un contexte socioéconomique, une trajectoire thérapeutique, etc. Bien que ces différents cadres soient considérés comme des sources potentielles de soutien, on constate néanmoins que les personnes avec des problèmes de santé mentale sont confrontées à une accumulation d'obstacles sociaux entravant leur épanouissement. À la lumière de ces constats, comment le rétablissement est-il possible? À travers une perspective interactionniste, la présente étude situe l'enjeu premier du rétablissement dans la recherche de reconnaissance sociale. En ce sens, un des obstacles principaux auxquels se heurtent les individus avec des problèmes de santé mentale relève de la stigmatisation, à la source de discrimination et d'une dégradation de l'image de soi. Ainsi, se rétablir implique nécessairement de lutter contre les effets de cette stigmatisation. La méthodologie ethnographique, fondée sur la tenue d'entretiens et l'observation participante, a permis de documenter certains moyens dont les personnes font usage dans leur vie quotidienne pour lutter contre les effets de la stigmatisation, notamment dans le cadre de leurs relations avec leur entourage. De plus, elle a permis d'éclairer la façon dont les individus intègrent leur réponse à différentes normes sociales dans leur travail de reconstruction identitaire. Ce processus est illustré par l'identification individuelle et collective aux normes thérapeutiques du rétablissement prenant place dans un organisme communautaire en santé mentale. La capacité des participantes à l'étude à correspondre à ces idéaux thérapeutiques est interprétée à la lumière de leur stigmate et intégrée dans leur perception de soi. Les données issues de cette étude ainsi que leur analyse et interprétation suggèrent que la recherche d'une plus grande reconnaissance sociale prend la forme d'une lutte pour l'acceptation sociale. Ainsi, malgré un discours thérapeutique mettant de l'avant les principes d'auto-détermination et d'autonomie, il apparaît que, dans la trajectoire des personnes avec des problèmes de santé mentale, le poids du stigmate et de certaines normes sociales joue un rôle fort important qu'on ne peut se permettre d'ignorer. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : rétablissement, stigmatisation, santé mentale, identité, exclusion, marginalisation, normes sociales
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie