Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Technique de référence.

Dissertationen zum Thema „Technique de référence“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-36 Dissertationen für die Forschung zum Thema "Technique de référence" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Scache, Daniel. „Référence technique et classe-laboratoire de sciences physique en lycée professionnel : Contribution à la didactique en formation professionnelle“. Lille 1, 1993. http://www.theses.fr/1993LIL12007.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Noël, Françoise. „Famille. . . Je vous aime! : la référence familiale dans l'éducation en internat des enfants cas sociaux“. Paris 10, 1985. http://www.theses.fr/1985PA100224.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Dagnan-Laville, Agnès. „Aide à la conception intégrée basée sur un modèle de référence et la coopération de plusieurs modes de raisonnement“. Châtenay-Malabry, Ecole centrale de Paris, 1999. http://www.theses.fr/1999ECAP0645.

Der volle Inhalt der Quelle
Annotation:
Face au défi qui consiste à maitriser la réalisation de systèmes technologiques complexes dans un environnement concurrentiel et instable, une démarche d'ingénierie intégrée s'impose. Première étape de cette démarche, la conception consiste à transformer un ensemble de spécifications décrivant, entre autres, les fonctionnalités du système en une description organique. Habituellement, l'objectif des outils support de cette étape exploratoire et particulièrement déterminante est d'assister les acteurs-concepteurs, en leur offrant des systèmes informatiques interactifs pour formuler les problèmes qu'ils ont à traiter et en communiquer les solutions. Mais on constaté que plus l'activité est amont dans le cycle de vie plus l'assistance s'avère inapte, du fait de l'intégration dans un même artefact de connaissances hétérogènes, mal structurées, incomplètes. Un des enjeux de nos travaux est de contribuer à l'amélioration du processus de conception dans un contexte d'ingénierie intégrée, en proposant une approche d'aide à la conception qui permette la structuration, la manipulation et la réutilisation des connaissances de conception ainsi que la résolution des problèmes de conception adaptée aux spécificités des problèmes rencontrés durant les phases amonts du processus de conception. Pour cela, nous proposons un modèle de référence générique permettant de construire des modèles de conception particuliers, adaptes au domaine métier de l'acteur-concepteur et de construire, à partir de ces modèles particuliers, le système d'information pour la conception en intégrant à la fois les connaissances produit liées au système à concevoir et les connaissances projet liées aux activités d'organisation qui se rattachent à la réalisation du système. En outre, la coopération de différents modes de raisonnements issus de l'intelligence artificielle offrent des capacités variées de résolution de problèmes et visent ainsi à accroitre l'efficacité du système d'aide proposé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Laroche, Florent. „Contribution à la sauvegarde des objets techniques anciens par l'archéologie industrielle avancée : proposition d'un modèle d'information de référence muséologique et d'une méthode inter-disciplinaire pour la capitalisation des connaissances du patrimoine technique et industriel“. Nantes, 2007. http://www.theses.fr/2007NANT2120.

Der volle Inhalt der Quelle
Annotation:
Pour optimiser sa création de valeur, l'entreprise adapte sans cesse son mode de fonctionnement et ses outils de production. Les machines considérées comme obsolètes car ne répondant plus à la demande sont arrêtées, remisées voire même démantelées. Ainsi, certains sites industriels disparaissent et les hommes, catalyseurs des savoir-faire, les emportent avec eux. Sauvegarder, analyser et comprendre ces objets du Patrimoine Passé peut permettre de les transformer en Capital Présent pour les industriels. Quant à leurs conservations et leurs vulgarisations dans les musées et les sites, le vieillissement intrinsèque de l'information technique nécessite d'implémenter une nouvelle muséologie pour ce 3ème millénaire. La méthodologie développée consiste à renverser l'axe des temps de la conception : c'est le Rétro-processus de Conception Patrimoniale. L'Archéologie Industrielle Avancée permet la constitution du Dossier d'Oeuvre Patrimoniale Technique en capitalisant les connaissances du passé sous une forme numérique et en les repositionnant virtuellement en situation d'usage à des fins de muséographie et de valorisation. La complexité des objets induisant une multiplicité des compétences, c'est un nouveau Processus Coopératif d'ingénierie Patrimoniale. Dès lors, une nouvelle forme d'Equipe Inter-disciplinaire émerge pour laquelle un référentiel commun permet de faire cohabiter les différentes sémantiques. Ainsi, le Système d’Information proposé encapsule cette taxonomie des Hommes en considérant également les acteurs du passé. Le modèle définit l'Objet technique à caractère patrimonial dans ses Aspects Internalistes et Externalistes. Le Digital Heritage Reference Model ou Dossier d’Oeuvre Patrimonial Numérique de Référence, DHRM, peut alors être considéré comme un nouvel outil de travail muséologique. Dans ces travaux de recherche, de nombreux cas d'études sont analysés et conceptualisés pour construire les ontologies validant ainsi l'applicabilité du DHRM
For optimizing its added value creation, enterprise adjusts continuously its operating modes and its production tools. Machines considered obsoletes as soon as they don't meet the demand, are consequently stopped, stored and very often dismantled. Consequently, industrial sites disappear and the workers, creators of knowledge, are leaving the industrial world with their know-how. Safe keeping, analyzing and understanding these objects belonging to a Past Heritage can convert them into a Present Capital; sometimes, they can even become an innovation source for preparing our future and assisting industrials to create the tomorrow objects. In addition, concerning their conservation and their popularization in museums and sites, the aging of technical information requires to implement a new kind of museology for this 3rd millennium. The developed methodology consists in overturning the design time axis: it is the Reverse-process of Heritage Design. Advanced Industrial Archaeology, allows the elaboration of the Technical Heritage File by capitalizing knowledge from the past into a digital media and a virtual simulating state for museography and valorization. As the objects complexity requires a multiplicity of competences, the Heritage Cooperative Engineering Process requires collaborations of experts who usually, do not collaborate. Therefore, a new kind of Inter-disciplinary Team is appearing which needs a common base for allowing different semantics living together. Consequently, the Information System proposes to encapsulate this taxonomy of the Men, also taking into account the actors of the past. The model defines the Heritage Technical Object in its Internal and External Aspects. The Digital Heritage Reference Model, DHRM, can then be considered as a new tool for museology. During these researches, numerous technical studies are analyzed and conceptualized so as to build the ontology's and consequently validate the applicability of DHRM
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Laroche, Florent. „Contribution à la sauvegarde des Objets techniques anciens par l'Archéologie industrielle avancée.Proposition d'un Modèle d'information de référence muséologique et d'une Méthode inter-disciplinaire pour la Capitalisation des connaissances du Patrimoine technique et industriel“. Phd thesis, Ecole centrale de nantes - ECN, 2007. http://tel.archives-ouvertes.fr/tel-00382703.

Der volle Inhalt der Quelle
Annotation:
Pour optimiser sa création de valeur, l'entreprise adapte sans cesse son mode de fonctionnement et ses outils de production. Les machines considérées comme obsolètes car ne répondant plus à la demande sont arrêtées, remisées voire même démantelées. Ainsi, certains sites industriels disparaissent et les hommes, catalyseurs des savoir-faire, les emportent avec eux. L'absence de protection de ce patrimoine technique et industriel pose aujourd'hui question car cette culture technique s'avère parfois transposable à des domaines d'applications connexes. Sauvegarder, analyser et comprendre ces objets du Patrimoine Passé peut permettre de les transformer en Capital Présent et devenir source d'innovation pour anticiper notre futur et aider les industriels à créer les objets de demain. Quant à leurs conservations et leurs vulgarisations dans les musées et les sites, le vieillissement intrinsèque de l'information technique nécessite d'implémenter une nouvelle muséologie pour ce 3ème millénaire : la Techno-muséologie.
La méthodologie développée consiste à renverser l'axe des temps de la conception : c'est le Rétro processus de Conception Patrimoniale. L'Archéologie Industrielle Avancée permet la constitution du Dossier d'Oeuvre Patrimoniale Technique en capitalisant les connaissances du passé sous une forme numérique et en les repositionnant virtuellement en situation d'usage à des fins de muséographie et de valorisation. La complexité des objets induisant une multiplicité des compétences, le Processus Coopératif d'Ingénierie Patrimoniale requiert la collaboration de métiers qui, jusqu'alors, ne collaboraient pas ou peu. Dès lors, une nouvelle forme d'Equipe Inter disciplinaire émerge pour laquelle un référentiel commun permet de faire cohabiter les différentes sémantiques. Ainsi, le Système d'Information proposé encapsule cette taxonomie des Hommes en considérant également les acteurs du passé. Le modèle définit l'Objet technique à caractère patrimonial dans ses Aspects Internalistes et Externalistes. Le Digital Heritage Reference Model ou Dossier d'Oeuvre Patrimonial Numérique de Référence, DHRM, peut alors être considéré comme un nouvel outil de travail muséologique.
Dans ces travaux de recherche, de nombreux cas d'études sont analysés et conceptualisés pour construire les ontologies validant ainsi l'applicabilité du DHRM.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Razafiarison, Tahiry Anja. „La responsabilité médicale à Madagascar : Réalités internes et proposition d'actualisation en référence au droit médical français“. Thesis, Poitiers, 2013. http://www.theses.fr/2013POIT3003/document.

Der volle Inhalt der Quelle
Annotation:
Afin de répondre aux attentes de la société malgache, une proposition de loi relative à la responsabilité médicale doit être en cohérence avec la vision locale de la pratique médicale. À Madagascar, l'issue d'un acte de soin est supposée émaner de la divinité et ne saurait être maîtrisé par le soignant. De fait, l'aléa thérapeutique s'insère dans le droit médical local. Le médecin n'est pas tenu de réaliser une guérison; il doit prodiguer des soins consciencieux et conformes à la science. Ceci étant, la culture malgache est sensible à toute atteinte corporelle subie par la victime d'accident médical. Le cas échéant, le médecin fait un "geste" de courtoisie à l'égard de la victime. Ce "geste" peut ne pas représenter l'intégralité du préjudice mais il participe au respect de la victime. Ainsi, à Madagascar, l'obligation médicale de réparer vise la reconnaissance de la douleur du patient et non la réparation quantitative du préjudice. Sur ce point, une divergence se dessine avec le droit français lequel préconise la réparation intégrale pour les atteintes corporelles. Les modes alternatifs de résolution des conflits présents dans les deux systèmes juridiques, dénouent cette divergence
To come up to the Malagasy society's expectations a legal act on medical responsibility should be coherent with the local conception of medical practice. In Madagascar, the public opinion is convinced that medical practice has to deal with a divine action out of the physician's control so that the legal concept of therapeutic risk is therefore accepted. The physician is only required to assume the continuity of the service and to provide his or her best care to patients. Meanwhile Malagasy culture shows an extreme compassion towards people suffering of bodily injuries mainly when these wounds result from a malpractice. To prevent a godly punishment doctors usually have to donate to their injured patient. This helps to preserve the physician's reputation and his or her relationship with the patient. Medical duty in Madagascar is more a matter of recognition of the patient's pain than a procedure of compensation. French legal system is different as it promotes the complete compensation in case of malpractice. However, both legal systems are similar when proposing alternative process to resolve conflicts
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Neunreuther, Éric. „Contribution à la modélisation des systèmes intégrés de production à intelligence distribuée : application à la distribution du contrôle et de la gestion technique sur les équipements de terrain“. Nancy 1, 1998. http://www.theses.fr/1998NAN10183.

Der volle Inhalt der Quelle
Annotation:
Pour réduire les couts de développement, augmenter la qualité, et capitaliser les connaissances des systèmes de production, une solution est de pérenniser leur processus d'ingénierie. L’objectif de nos travaux est donc de contribuer à la modélisation des systèmes intégrés de production (S. I. P. ) de niveau terrain par la proposition de modèles de référence. Les systèmes décrits par ces modèles mettent en œuvre des architectures reparties qui assurent la distribution de l'intelligence dans différents équipements. En conséquence, la première partie de ce mémoire présente l'approche de modélisation systémique de ces systèmes que nous dénommons S. I. P. I. D. (systèmes intégrés de production a intelligence distribuée). Cette approche est caractérisée par la description fonctionnelle, organisationnelle et opérationnelle de leur contrôle distribué, et par l'ouverture de ce contrôle vers un système d'information technique pour son intégration avec la maintenance et la gestion technique. Une deuxième partie expose la formalisation de cette approche de modélisation par des modèles de référence. Afin d'être valides, ces modèles sont appliques par dérivation à un S. I. P. I. D. Particulier de régulation de niveau. Une troisième partie propose, sur la base de ces apports, la spécification par des modèles d'un prototype d'outil méthode, dont le rôle est d'automatiser partiellement l'approche de modélisation de tout S. I. P. I. D.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Zhang, Xin. „Contribution à l’ingénierie du changement dans les projets de développement de produits : modèle de référence et simulation par système multi-agents“. Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR14892/document.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cette thèse est de fournir des modèles de référence, les méthodes de soutien et des outils qui simulent les change propagations dans un projet de développement de produit (PD) pour aider les prises de décision. Nous établissons d’abord un cadre d’analyse des changes de modéliser le contexte du change apparition et la propagation en prenant en compte les multiples domaines du projet PD simultané- ment. Dans le cadre, nous proposons les modèles conceptuels de change apparition et la propagation qui fournissent une méthode pour identifier les change et propagation et impliquent certaines caractéristiques du change propagations. S’appuyant sur cela, nous vous proposons les procédures de mise en place des réseaux de propagation. Au sein du réseau, nous proposons la méthodologie de simulation de l’évolution propaga- tions, puis de présenter le processus de mise en uvre des méthodologies et des modèles comme un prototype en utilisant la technologie à base multi-agents
The overall goal of this Ph.D. research is to provide reference models, support me- thods and tools that simulate change propagations in a Product Development (PD) project to assist decision-makings. We firstly establish a change analysis framework of modeling the context of change occurrence and propagation by taking into account the multiple knowledge areas of PD project simultaneously. Under the framework, we propose the conceptual models of change occurrence and change propagation that pro- vide a qualitative method to identify change and change propagation and imply some characteristics of change propagations. Relying on that, we suggest the procedures of building up the change propagation networks. Within the network, we propose the methodology of simulating change propagations and then present the process of im- plementing the methodologies and the models as a software prototype by using multi- agent based technology
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Albezzawy, Muhammad Nabil Mustafa. „Advanced signal processing methods for source identification using references“. Electronic Thesis or Diss., Lyon, INSA, 2024. http://www.theses.fr/2024ISAL0074.

Der volle Inhalt der Quelle
Annotation:
Les techniques de référence à rang réduit sont couramment employées pour résoudre les problèmes d’extraction de source et de resynchronisation de champs physiques, lorsque le nombre de références dépasse celui des sources incohérentes. Dans ce cas, la matrice croisée-spectrale devient mal conditionnée, rendant la solution des moindres carrés invalide. Bien que la décomposition en valeurs singulières tronquée (DVST) soit utilisée pour résoudre ce problème, elle n'est valable que pour un bruit scalaire sur les références. De plus, il est difficile de définir un seuil de troncature lorsque les valeurs singulières diminuent progressivement. Cette thèse propose une solution nommée technique de référence maximale-coherent (RMC), basée sur la recherche d’un ensemble de références virtuelles maximales correlées avec les mesures de champ. Cette technique est optimale, surtout en présence d’un bruit corrélé sur la référence. Cependant, elle nécessite également une troncature des valeurs propres, exigeant la connaissance ou l’estimation préalable du nombre de sources incohérentes, un problème inverse mal posé et peu étudié. La thèse présente trois méthodes d’énumération de sources applicables à toutes les techniques de référence : un test du rapport de vraisemblance contre le modèle saturé, une technique de bootstrap paramétrique et une approche de validation croisée. Une étude comparative basée sur des données numériques et expérimentales montre deux résultats importants. D'abord, le nombre de fenêtres spectrales utilisées affecte grandement la performance des trois méthodes, qui se comportent différemment selon ce nombre. Ensuite, le bootstrap paramétrique s’avère être la meilleure méthode en termes de précision et de robustesse par rapport au nombre de fenêtres utilisées. Enfin, la technique RMC accompagnée de bootstrap a été utilisée pour l’extraction de source et la resynchronisation de données réelles provenant d’expériences en laboratoire et d’un moteur électrique, fournissant de meilleurs résultats que la solution des moindres carrés et la DVST dans les mêmes conditions
Rank-reduced reference/coherence techniques based on the use of references, i.e. fixed sensors, are widely used to solve the two equivalent problems of source extraction and resynchronization encountered during remote sensing of physical fields, when the number of references surpasses the number of incoherent sources. In such case, the cross-spectral matrix (CSM) becomes ill-conditioned, resulting in the invalidity of the least squares LS solution. Although the truncated singular value decomposition (TSVD) was successfully applied in the literature to solve this problem, its validity is limited only to the case of scalar noise on the references. It is also very difficult to define a threshold, for truncation, when the singular values are gradually decreasing. This thesis proposes a solution based on finding a set of virtual references that is maximally correlated with the field measurements, named the maximally-coherent reference (MCR) Technique. This solution is optimal, especially, in the case of correlated noise on the reference, where TSVD fails. However the technique also includes an eigenvalue truncation step, similar to the one required for the TSVD, which necessitates a priori knowledge or the estimation of the number of incoherent sources, i.e. source enumeration, which is an ill-posed inverse problem, insufficiently investigated in the literature within the framework of reference techniques. In this thesis, after providing a unified formalism for all the reference techniques in the literature, three alternative source enumeration methods, applicable to all the reference techniques, were presented namely; a direct likelihood ratio test (LRT) against the saturated model, a parametric bootstrap technique and a cross-validation approach. A comparative study is performed among the three methods, based on simulated numerical data, real sound experimental data, and real electrical motor data. The results showed two important outcomes. The first is that the number of snapshots (spectral windows), used in the spectral analysis, greatly affects the performance of the three methods, and that, they behave differently for the same number of used snapshots. The second is that parametric bootstrapping turned out to be the best method in terms of both estimation accuracy and robustness with regard to the used number of snapshots. Finally, the MCR technique accompanied with bootstrapping was employed for source extraction and resynchronization of real data from laboratory experiments, and an e-motor, and it returned better results than the LS solution and the TSVD when employed for the same purpose
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Heristchi, Vincent. „Neige électronique - L'effet vidéo“. Thesis, Paris 3, 2010. http://www.theses.fr/2010PA030105.

Der volle Inhalt der Quelle
Annotation:
Si la vidéo est d’un usage courant à la télévision et dans la pratique amateur depuis plusieurs décennies, sa mise en contact avec des films tournés sur pellicules 16 ou 35mm traditionnelles est plus occasionnelle, tout en offrant de nouvelles possibilités esthétiques. En conservant la texture particulière de la vidéo dans un mélange et une confrontation des formats, un effet peut se produire. La création de cet « effet vidéo » est l’objet de notre étude. Que peut l’apparition d’une image vidéo, définie et lisible comme telle, à l’intérieur d’une oeuvre de fiction ou de documentaire dont le support de référence est le celluloïd ? Nous examinerons ainsi certains films de [notamment] Robert Kramer, William Klein, Michael Haneke, Fritz Lang, Jean-Luc Godard, Atom Egoyan, David Cronenberg, David Lynch, Abbas Kiarostami, Abel Ferrara, Wim Wenders, Chris Marker ou Jean-Daniel Pollet. Ayant déterminé le support de référence, nous constaterons que ces images renvoient à un type particulier d’effet vidéo [télévisuel, de surveillance ou amateur-intime], pour étudier ensuite comment ces données peuvent être perverties. Nous analyserons comment la vidéo peut perdre toute justification narrative à l’intérieur de l’œuvre, et infléchir par sa seule texture l’émotion du spectateur, pour éventuellement « faire l’image » [pour reprendre l’expression de Samuel Beckett]. Enfin, en rendant sa nature instable, nous constaterons que l’effet vidéo peut permettre les écarts d’un souffle poétique
Video is currently used on television and as an amateur format, and has been for a few decades. But its mixing with feature movies shot on traditional 16 or 35 millimetres is more occasional, even if it can offer new aesthetical possibilities. By keeping the particular texture of video, in a mix and a confrontation of formats, an effect can occur. The creation of that “video effect” is the subject of this study. What can create a video image [defined and readable as video] when a fiction or a documentary’s reference of format is on celluloid? To that purpose, some films directed by Robert Kramer, William Klein, Michael Haneke, Fritz Lang, Jean-Luc Godard, Atom Egoyan, David Cronenberg, David Lynch, Abbas Kiarostami, Abel Ferrara, Wim Wenders, Chris Marker or Jean- Daniel Pollet will be investigated. These images determine a particular video effect [television, CCTV or amateur-intimate], and its constituting elements can be altered. Video can also lose all its narrative justification and influence the audience’s emotions only through its texture, in order to eventually « make the image » [in reference to Samuel Beckett’s short story]. Finally, by creating instability in the nature of its constitution, the video effect can contain the openness of a poetic whisper
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Lombard, Grégori Muriel. „Contribution au génie productique : prototypage d'une architecture d'ingénierie concourante des systèmes intégrés de fabrication manufacturière“. Nancy 1, 1994. http://www.theses.fr/1994NAN10054.

Der volle Inhalt der Quelle
Annotation:
L'évolution issue du C. I. M. (computer integrated manufacturing) visant à considérer l'intégration de toutes les fonctions de l'entreprise opère une mutation qui l'a fait passer du traitement des données à la gestion des informations computer information management, puis de la communication syntaxique en termes de données à une communication des connaissances et propose ainsi la signification nouvelle de corporate information management pour l'acronyme C. I. M. Par rapport, à ce constat, nous proposons, autour du concept d'ingénierie concourante, la définition d'un référentiel commun pour les différents métiers concernés par un système de production, en réduisant ce domaine aux fonctions de gestion technique, de conception et d'exploitation pour les métiers de la mécanique et de l'automatique. L'architecture D. M. M. S. (design management and manufacturing system) ainsi définie permet à chaque pole de disposer de son propre référentiel métier en relation avec les autres via le poste de gestion technique. La modélisation de cette architecture nécessite la mise en œuvre d'environnements intégrés de production. Dans cette optique, nous présentons l'expérimentation de P. C. T. E. (portable commun tool environment), comme plate-forme d'intégration pour le génie productique. Cette modélisation doit tenir compte de la complexité des systèmes de production due principalement à la distribution de la connaissance tout au long du cycle de vie du produit. Pour ce faire, nous proposons, à l'aide d'un modèle de référence d'un système productique qui s'appuie sur le génie systématique, une méthodologie systémique permettant d'appréhender la complexité et la concourance des systèmes considérés
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Carnec, Mathieu. „Critères de qualité d'images couleur avec référence réduite perceptuelle générique“. Nantes, 2004. http://www.theses.fr/2004NANT2044.

Der volle Inhalt der Quelle
Annotation:
Les images numériques occupent une importance croissante dans les moyens d'information. Pour les images destinées à l'homme, il est nécessaire de disposer de méthodes capables d'évaluer la qualité des images afin d'adapter les traitements (compression, amélioration d'images) et de mesurer la qualité de service des transmissions. Pour être efficaces, ces méthodes (appelées "critères de qualité") doivent produire des notes de qualité se rapprochant le plus possible des notes de qualité données par des observateurs humains (durant des tests d'évaluation subjective de la qualité). Nous proposons des critères de qualité basés sur un modèle organisationnel et fonctionnel du système visuel humain. Ce modèle décrit les différentes étapes de la vision : de l' œil jusqu'au cortex visuel qui comprend les aires V1, V2, la voie ventrale et la voie dorsale. L'innovation de ces critère réside dans l'extraction, dans une image représentée dans un espace perceptuel, de traits caractéristiques comparables à ceux utilisés par le système visuel humain. Une mesure de similarité entre les traits caractéristiques d'une image originale et ceux d'une image dont la qualité est à évaluer permet de produire la note de qualité. Plusieurs mesures de similarité ont été testées, chacune utilisant différents traits caractéristiques et conduisant au développement d'un critère de qualité particulier. Ces traits caractéristiques constituent une référence réduite de l'image qui peut, dans un contexte de transmission, être transmise en même temps que l'image dégradée afin d'évaluer la qualité de l'image dégradée. Les résultats montrent, sur deux bases d'images notées (contenant des images et leurs notes subjectives de qualité), une corrélation importante entre certaines mesures de similarité testées et les notes subjectives. La taille de la référence réduite est paramétrable et une quantification de cette référence réduite permet de diminuer encore sa taille en gardant de bonnes performances. Notre travail a été intégré au sein de deux applications afin d'évaluer la qualité d'images et de compresser des images en choisissant la qualité des images après compression / décompression
Digital images are widely used in information media. For images that target human observers, it is necessary to hold methods that can assess image quality in order to adapt image processing (image compression, image enhancement) and measure the quality of transmission services. To be efficient, these methods (called "quality criteria") must produce quality scores in close relation with subjective quality scores given by human observers (during subjective quality evaluation tests). We propose new quality criteria based on a functional and organisational model of the human visual system. This model describes the different stages of vision : from the eye to the visual cortex which contains the V1 and V2 areas, the ventral pathway and the dorsal pathway. The novelty of these new quality criteria resides in the extraction, from an image represented in a perceptual space, of features that can be compared to the ones used by the human visual system. A similarity measure between features from an original image and features from a test image (whom quality is to be assessed) enables to produce the quality score. Several similarity measures have been tested, each one using different features and so, leading to the development of a particular quality criterium. These features constitute a reduced reference of the image which can, in a transmission context, be transmitted with the distorted image so that the quality of this latter can be assessed. Results show, on two different scored images bases (containing both images and their subjective quality scores), an important correlation between some similarity measures that have been tested and subjective scores. The size of reduced references is flexible and a quantification of this reduced reference lowers its size while preserving good performances. Our work has been integrated in two applications in order to assess images quality and to compress images while choosing the quality of output images
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Barland, Rémi. „Évaluation objective sans référence de la qualité perçue : applications aux images et vidéos compressées“. Nantes, 2007. http://www.theses.fr/2007NANT2028.

Der volle Inhalt der Quelle
Annotation:
Le passage au tout numérique et le développement des communications multimédias engendrent une circulation de l’information de plus en plus dense. Cet accroissement massif de la quantité de données échangées génère une saturation progressive des réseaux de transmission. Pour remédier à cette situation, les standards de compression cherchent à exploiter davantage la corrélation spatiale et/ou temporelle pour réduire les débits. La réduction d’information résultante génère des artéfacts visuels qui peuvent altérer le contenu visuel de la scène et donc provoquer une gêne chez l’utilisateur final. Afin de proposer le meilleur service de diffusion possible, la mesure de la qualité perçue est alors nécessaire. Les tests subjectifs qui représentent la méthode de référence pour quantifier la perception des dégradations, sont coûteux, lourds à mettre en œuvre et demeurent inappropriés pour une mesure de la qualité en ligne. Dans cette thèse, nous nous sommes intéressés aux standards de compression (image et vidéo) les plus usuels et avons élaboré des métriques de qualité sans référence basées sur l’exploitation des artéfacts visuels les plus gênants, tels que les effets de blocs, de flou et de ringing. L’approche proposée est modulaire et s’adapte au codeur considéré et au rapport complexité/performance recherché. Pour une faible complexité, la métrique quantifie les dégradations spécifiques au codeur considéré, en exploitant uniquement les propriétés du signal image. Pour atteindre de meilleures performances, au détriment d’une certaine complexité, celle-ci intègre en plus des modèles cognitifs simulant les mécanismes de l’attention visuelle. Les cartes de saillance générées par ces modélisations sont alors utilisées pour affiner les mesures de dégradations purement signal proposées
The conversion to the all-digital and the development of multimedia communications produce an ever-increasing flow of information. This massive increase in the quantity of data exchanged generates a progressive saturation of the transmission networks. To deal with this situation, the compression standards seek to exploit more and more the spatial and/or temporal correlation to reduce the bit rate. The reduction of the resulting information creates visual artefacts which can deteriorate the visual content of the scene and thus cause troubles for the end-user. In order to propose the best broadcasting service, the assessment of the perceived quality is then necessary. The subjective tests which represent the reference method to quantify the perception of distortions are expensive, difficult to implement and remain inappropriate for an on-line quality assessment. In this thesis, we are interested in the most used compression standards (image or video) and have designed no-reference quality metrics based on the exploitation of the most annoying visual artefacts, such as the blocking, blurring and ringing effects. The proposed approach is modular and adapts to the considered coder and to the required ratio between computational cost and performance. For a low complexity, the metric quantifies the distortions specific to the considered coder, only exploiting the properties of the image signal. To improve the performance, to the detriment of a certain complexity, this one integrates in addition, cognitive models simulating the mechanisms of the visual attention. The saliency maps generated are then used to refine the proposed distortion measures purely based on the image signal
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Yao, Kunliang. „Estimation de la nutation de la Terre par les techniques VLBI et GPS“. Paris 6, 2013. http://www.theses.fr/2013PA066206.

Der volle Inhalt der Quelle
Annotation:
Le but de cette thèse est d’utiliser indépendamment les observations obtenues par les techniques VLBI et GPS, pour déterminer les nutations de l’axe de la Terre à toutes les fréquences avec la meilleure précision possible. Après avoir présenté les systèmes de référence, les échelles de temps, les paramètres et les modèles, le manuscrit décrit la méthodologie du travail de cette thèse, l’analyse des observations et les résultats obtenus. Dans le cas du VLBI, on a étudié les effets du système de référence et du modèle de précession-nutation afin d’optimiser la détermination de la précession-nutation. On a analysé 5069 observations couvrant une période de plus de trente ans, puis estimé des corrections aux amplitudes des termes de nutation. Dans le cas du GPS, on a d’abord estimé le mouvement du pôle et les corrections de nutation en utilisant comme a priori la solution C04 de l’IERS. Puis, un nouveau logiciel a été développé en environnement Matlab pour estimer les dérivées temporelles de la nutation. L’intégration numérique d’orbites des satellites, a été effectuée dans un système de référence défini par la position du pôle et de l’origine sur l’équateur au début de l’arc, ce qui permet de s’affranchir de l’influence des valeurs a priori de précession-nutation. En analysant 315 360 observations effectuées toutes les 300 s par environ 110 stations, les dérivées temporelles des coordonnées du pôle céleste sont déterminées toute les 6 h pendant 3 ans à partir du 1er janvier 2009. Puis, les corrections de nutation de périodes inférieures à 20 jours sont déduites, pour la première fois par la technique GPS seule, avec une précision de l’ordre de 10 µas
The purpose of this thesis is to use independently observations obtained by VLBI and GPS techniques, to determine the nutation of the Earth’s rotation axis at all frequencies with the best possible accuracy. After presenting the reference systems, timescales, parameters and models, the manuscript describes the methodology of this thesis, the analysis of the observations and the results. In the case of VLBI, we have studied the effects of the reference system and the precession-nutation model in order to optimize the precession-nutation determination; we have analyzed 5069 observations covering a period of more than 30 years and then estimated corrections to the amplitudes of the nutation terms. In the case of GPS, we have firstly estimated the polar motion and nutation corrections using the IERS C04 solution as a priori. Then, a new software has been developed in Matlab to estimate the time derivative of the nutation. The numerical integration of satellite orbit is computed in a reference system defined by the position of the pole and the origin on the equator at the beginning of the arc, which helps to minimize the influence of precession-nutation a priori values. Analyzing 315 360 observations obtained by about 110 stations every 300 s, we have determined the time derivatives of the coordinates of the celestial pole every 6 h for 3 years from 1 January 2009. Then, we have derived the corrections to nutation terms with periods shorter than 20 days, for the first time by the GPS technique only, with a precision of the order of 10 μas
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Appert, Damien. „Conception et évaluation de techniques d'interaction non visuelle optimisées pour de la transmission d'information“. Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30095/document.

Der volle Inhalt der Quelle
Annotation:
Dans des situations où la perception visuelle est fortement contrainte ou déficiente, il est nécessaire de rendre perceptible l'information dans une modalité non visuelle, tout en prenant en compte des capacités sensorielles et mnésiques humaines. Par exemple, un non-voyant, souhaitant prendre connaissance d'un itinéraire, devra le parcourir de façon non visuelle et le mémoriser. Cependant, outre l'aspect matériel, la mise en œuvre de solutions alternatives (non visuelles) demeure confrontée aux capacités cognitives de l'utilisateur (compréhension, mémorisation, intégration de plusieurs informations, etc.). L'objet de cette thèse est de contribuer à la conception de techniques d'interactions permettant d'optimiser la transmission non visuelle d'informations. A ces fins, j'ai exploré l'apport de la multimodalité comme moyen d'optimisation permettant d'outrepasser les limites de la mémorisation. Je me suis concentré sur l'étude des techniques d'interaction basées sur les modalités auditives et tactiles, en limitant au maximum l'utilisation de la parole, afin de concevoir des techniques pour des environnements différents (flexibilité), d'optimiser l'utilisation de canaux perceptifs (exploitation des propriétés du son dans des messages audio pour transmettre plus d'informations, par exemple), d'éviter de limiter mes techniques par la barrière de la langue ou de sa compréhension et enfin, pour explorer d'autres solutions que la synthèse vocale seule. Les travaux de ma thèse ont mené à la conception, à l'implémentation et à l'évaluation de techniques d'interaction multimodale non visuelle, en réponse à différents contextes, dont, en particulier, ceux de la transmission d'informations de type , (couple de coordonnées) et (séquence de couples direction-distance). Pour parvenir à concevoir mes interactions, j'ai, tout d'abord, effectué une revue de la littérature, afin d'en extraire les principaux facteurs de conception de techniques d'interaction dédiées à la transmission non visuelle d'information. Puis, j'ai organisé ces facteurs sous la forme d'un cadre d'analyse, sur lequel je me suis appuyé pour concevoir chacune de mes techniques. Trois expériences distinctes ont permis d'évaluer l'influence de facteurs de conception sur l'efficacité des interactions et la satisfaction des utilisateurs vis-à-vis des techniques. Je peux, notamment, citer l'implication des utilisateurs (actif ou passif), la présence d'aides explicites", la transmission de plusieurs informations en parallèle et la modalité principale utilisée et, le type de codage dans lequel est encodée l'information
In situations where the visual perception is strongly constraint or deficient, it is necessary to make perceptible the information with a "not visual form" while taking into account human sensory and mnesic capacities. For example, a blind person wishing to acquaint an itinerary must read it under a non visual form and memorize it. However, besides the material aspect, the implementation of alternatives (non-visual) still faces to the cognitive abilities of the user (comprehension, memorization, integration of various information, etc.). The purpose of this thesis is to contribute to the design of interaction techniques allowing to optimize the transmission not visual of the information. For these purposes, I explored the feature of multimodality as a means of optimization, allowing of exceeding the memorization limits. I focused on the study of interaction techniques based on auditory and tactile modalities and by minimizing the use of the speech, in order to develop techniques for different environments (flexibility), optimize the use of perceptual channels (operating the properties of sound in audio messages to transmit more information, for example), avoid limiting my techniques by the language barrier or understanding and finally, to explore alternatives to the synthesised voice alone. The works of my thesis led to the design, to the implementation and to the evaluation of interaction techniques "non-visual" and "multiform", in answer to different contexts, whom in particular those of the information transmission of type , (pair of coordinates) and (sequence of couples direction-distance). To achieve design my interactions, I have made a review of literature in order to extract the main factors of design of interaction techniques dedicated to the transmission not visual of the information. Then, I have organized these factors in an analytical framework on which I have relied to design each of my techniques. Three separate experiments were led to evaluate the influence of design factors on the effectiveness of interactions and satisfaction towards users of technology. I can give some of them, the involvement of users (active or passive), the presence of explicit help, the transmission of several information in parallel, the main modality used and the type of coding in which is encoded the information
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Wöppelmann, Guy. „Rattachement géodésique des marégraphes dans un système de référence mondial par techniques de géodésie spatiale“. Observatoire de Paris (1667-....), 1997. https://hal.science/tel-02071389.

Der volle Inhalt der Quelle
Annotation:
L'étude du système climatique de la Terre montre que sa modélisation est complexe. La complexité des modèles n'est pas tant liée à la diversité aux processus physiques considérés, qu'à leur formulation mathématique compliquée. Dans ce cadre, le niveau de la mer présente un intérêt scientifique certain comme un indicateur climatique. Les données sur le niveau de la mer sont variées : géomorphologiques, archéologiques, isotopiques, etc. La revue montre que chacune présente un intérêt dans l'étude des causes de variation du niveau des mers à long terme. De nombreux auteurs ont analysé les données des marégraphes afin d'estimer les variations séculaires du niveau des mers et étudier leur relation avec le changement climatique. Nous avons effectué une analyse aussi critique que possible de ces études, tout en traitant à nouveau les données du PSMSL. Nous avons dégagé les problèmes inhérents à ces mesures. Conscients de ces problèmes, nous avons estimé une valeur de la tendance séculaire récente du niveau des mers : (1. 6 0. 3) mm/an. Nous avons examiné les données du marégraphe centenaire de Marseille. L’analyse des étalonnages montre que les calages réguliers de la référence instrumentale sont indispensables pour se prémunir d'une dérive non négligeable dans la problématique qui nous intéresse. Faute d'une référence altimétrique stable de façon absolue, toute tentative de détermination précise des variations eustatiques à partir des marégraphes semble incertaine. Après un panorama des références verticales, nous nous sommes consacrés à étudier la qualité du système de référence terrestre établi par l'IERS. Les résultats sont encourageants, mais encore insuffisants ici. Les éléments de base du rattachement géodésique des marégraphes sont étudiés, en distinguant les différentes grandeurs indépendantes. Le succès du processus synergique réside dans les progrès récents réalisés dans les techniques spatiales radioélectriques de positionnement. Au sein de chaque maillon de la chaine du processus les sources d'erreur systématiques sont nombreuses et variées. Une négligence sur l'une des grandeurs du processus synergique affecte les résultats au bout de la chaine. Des experts en chaque domaine du processus doivent intervenir. C’est sur ce constat que s'est bâti notre projet SONEL.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Etame, Etame Thierry. „Conception de signaux de référence pour l'évaluation de la qualité perçue des codeurs de la parole et du son“. Rennes 1, 2008. http://www.theses.fr/2008REN1S112.

Der volle Inhalt der Quelle
Annotation:
La manière la plus fiable d’évaluer la qualité des codecs consiste toujours à réaliser des séances d’écoute subjectives avec des méthodes qui doivent sans cesse s'adapter aux dégradations générées par les nouveaux schémas de compression. Ces tests nécessitent la présence de conditions de référence afin de permettre la comparaison des résultats d'un test à l'autre. Or, avec le système de référence MNRU (Modulated Noise Reference Unit ou appareil de référence à bruit modulé) actuel, seule la dégradation du bruit de quantification générée par les codeurs de forme d'onde PCM (Pulse Code Modulation ou MIC, Modulation par Impulsion Codée) est prise en compte. L'objectif de ce travail de thèse est de proposer un système de référence adapté aux dégradations générées par les nouveaux schémas de compression. La démarche adoptée consiste à déterminer et à caractériser l'espace perceptif qui sous-tend la perception des dégradations des codeurs actuels, pour pouvoir simuler ces dégradations
Subjective assessment is the most reliable way to determine overall perceived voice quality of network equipment, as digital codecs. Reference conditions are useful in subjective tests to provide anchors so that results from different tests can be compared. The Modulated Noise Reference Unit (MNRU) provides a simulated and calibrated degradation qualitatively similar to quantization distortion of waveform codecs. The introduction of new technologies for telecommunications services introduce new types of distortions and so the MNRU is not representative any more of the current degradations. The purpose of our work is to produce a reference system that can simulate and calibrate current degradations of speech and audio codec. The first step of the work consists in producing the multidimensional perceptive space underlying the perception of current degradations. The characterization of these perceptive dimensions should help to simulate and calibrate similar degradations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Ramin, Nicolas. „Vers une métrique sans -référence de la qualité spatiale d'un signal vidéo dans un contexte multimédia“. Nantes, 2009. http://www.theses.fr/2009NANT2070.

Der volle Inhalt der Quelle
Annotation:
Les différents services de communication vidéo en temps réel sur des réseaux de paquets ne garantissent pas toujours la qualité des signaux restitués. L'évaluation de la qualité devient nécesaire à la conception, à l'optimisation et au contrôle d'une chaîne de communication performante. Parmi les moyens disponibles pour accomplir cette tâche, l'évaluation subjective est unanimement reconnue comme étant celui le plus fiable. Cependant, le déploiement de tests subjectifs ne peut être imaginé pour la mesure en continu de la qualité en tout point de la chaîne de communication. Ceci justifie la nécessité de recherche d'outils d'évaluation automatique de la qualité et plus particulièrement des approches qui s'appuient sur le seul signal restitué : « les métriques de qualité sans référence suivant une approche signo-perceptuelle ». L'analyse des méthodes existantes montre qu'un effort particulier doit être fourni pour la prédiction de la qualité spatiale des signaux vidéo. Notre contribution à cet effort s'articule autour de différentes propositions d'études pyschophysiques, de modèles et de métriques de qualité
The various services of real-time video communication over packet networks still do not guarantee the quality of the delivered signals. Quality evaluation then proves necessary in the design, optimization and control of robust communication chains. In this respect, subjective evaluation is naturally acknowledged as the most reliable approach. However, subjective testing may not be resorted to when it comes to real-time measuring anywhere in the data flow. We can then infer the need for automatic quality evaluation tools and especially the necessity to rely on the delivered signal only : « no-reference quality metrics following a signo-perceptual approach ». The analysis of the existing methods shows that foreseeing the spatial quality of video signals represents a substantial effort. Our contribution to this effort translates into various propositions of psychophysical studies, models and quality metrics
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Altamimi, Zuheir. „Combinaison de techniques spatiales pour la détermination et la maintenance d'un système de référence terrestre centimétrique“. Observatoire de Paris, 1990. https://tel.archives-ouvertes.fr/tel-01958572.

Der volle Inhalt der Quelle
Annotation:
La définition précise d'un système de référence terrestre et sa meilleure réalisation par un repère de référence terrestre sont les exigences de nombreuses investigations géodynamiques de la Terre : la rotation de la terre, les déformations de sa croute dues aux mouvements des plaques tectoniques, aux marées terrestres et océaniques, etc. Les concepts fondamentaux des systèmes de référence célestes et terrestres sont exposés, ainsi que les relations qui les lient. La définition et la réalisation des systèmes de référence associés aux techniques spatiales (interférométrie à très longue base, télémétrie laser sur satellite et sur la Lune. . . ) sont décrites. La modélisation générale permettant l'estimation des coordonnées de stations et leurs variations temporelles est étudiée en vue de l'établissement et la maintenance d'un système de référence terrestre conventionnel. Des applications dans le cadre du service international de la rotation terrestre (IERS) sont présentées et en particulier, la réalisation de son système de référence terrestre par la combinaison de données des techniques spatiales. Une analyse de ce système ainsi que des effets lies au repère terrestre et à la rotation de la Terre est effectuée. Des améliorations et des perspectives futures sont esquissées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Sossa, Dorothé. „Techniques et moyens juridiques internationaux de lutte contre la corruption politique : (avec référence spéciale à l'Afrique subsaharienne)“. Thesis, University of Ottawa (Canada), 1991. http://hdl.handle.net/10393/7622.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Coulot, David. „Télémétrie laser sur satellites et combinaison de techniques géodésiques : contributions aux systèmes de référence terrestres et applications“. Phd thesis, Observatoire de Paris, 2005. http://tel.archives-ouvertes.fr/tel-00069016.

Der volle Inhalt der Quelle
Annotation:
La qualité actuelle des techniques de Géodésie Spatiale permet d'estimer des séries temporelles de produits géodésiques tels que les paramètres de rotation et les positions de stations terrestres. Ces nouveaux produits doivent être utilisés dans la matérialisation des Systèmes de Référence Terrestres, en constantes évolution et amélioration. Ils doivent aussi mettre en évidence les phénomènes, globaux ou locaux, régissant la rotation terrestre et les mouvements de la croûte. C'est dans ce contexte riche d'enjeux divers que s'inscrivent ces travaux. Leur but premier a été l'élaboration et l'application d'une méthode d'estimation de séries temporelles de positions de stations et de paramètres de rotation de la Terre par l'analyse de données de télémétrie laser sur satellites. Cette technique est en effet une des clefs de voûte du Repère de Référence Terrestre International (ITRF). En guise de validation de cette méthode, douze ans de données (1993-2004) sur les deux satellites LAGEOS ont été traités et analysés. Si les techniques géodésiques présentent certes des forces individuellement, c'est dans leur combinaison qu'elles montrent réellement toutes leurs potentialités. À ce titre, le Groupe de Recherche en Géodésie Spatiale (GRGS) a mené une expérience de combinaison de cinq techniques géodésiques (SLR/LLR/GPS/DORIS/VLBI) au niveau des observations sur l'année 2002. J'ai activement participé à cette expérience dont le but principal était de démontrer la force d'une telle approche pour la détermination de séries temporelles de coordonnées du pôle et du Temps Universel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Coulot, David. „Télémétrie laser sur satellites et combinaison de techniques géodésiques : contributions aux systèmes de référence terrestres et applications“. Phd thesis, Observatoire de Paris (1667-....), 2005. https://theses.hal.science/tel-00069016.

Der volle Inhalt der Quelle
Annotation:
La qualité actuelle des techniques de géodésie spatiale permet d'estimer des séries temporelles de produits géodésiques tels que les paramètres de rotation et les positions de stations terrestres. Ces nouveaux produits doivent être utilisés dans la matérialisation des systèmes de référence terrestres, en constantes évolution et amélioration. Ils doivent aussi mettre en évidence les phénomènes, globaux ou locaux, régissant la rotation terrestre et les mouvements de la croûte. C’est dans ce contexte riche d’enjeux divers que s’inscrivent ces travaux. Leur but premier a été l’élaboration et l’application d’une méthode d’estimation de séries temporelles de positions de stations et de paramètres de rotation de la terre par l’analyse de données de télémétrie laser sur satellites. Cette technique est en effet une des clefs de voûte du repère de référence terrestre international(ITRF). En guise de validation de cette méthode, douze ans de données (1993-2004) sur les deux satellites LAGEOS ont été traités et analysés. Si les techniques géodésiques présentent certes des forces individuellement, c’est dans leur combinaison qu’elles montrent réellement toutes leur potentialités. A ce titre, le Groupe de recherche en géodésie spatiale (GRGS) a mené une expérience de combinaison de cinq techniques géodésiques (SLR/LLR/DORIS/VLBI) au niveau des observations sur l’année 2002. J'ai activement participé à cette expérience dont le but principal était de démontrer la force d’une telle approche pour la détermination de séries temporelles de coordonnées du pôle et du temps universel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Munoz-Olivas, Riansares. „Spéciation du sélénium par techniques de couplage et détection par ICP/MS : application à la production des matériaux de référence“. Bordeaux 1, 1996. http://www.theses.fr/1996BOR10553.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail, plusieurs methodes analytiques ont ete mises au point pour la speciation des composes du selenium dans l'environnement. Un couplage entre la methode de generation d'hydrures et l'icp/ms comme detecteur, permet de differencier les especes inorganiques alors que la speciation des composes organoselenies est obtenue par chomatographie liquide avec la detection par icp/ms. Le developpement de ces methodes a permis d'une part de participer a la certification d'un echantillon de reference concernant les formes inorganiques du se organise par le bcr (cee). Et d'autre part, nous avons pu etudier la stabilite des composes organiques du se dans de nombreuses conditions en vue de la preparation d'un echantillon de reference pour ces especes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Ouni, Sonia. „Evaluation de la qualité des images couleur. Application à la recherche & à l'amélioration des images“. Thesis, Reims, 2012. http://www.theses.fr/2012REIMS034.

Der volle Inhalt der Quelle
Annotation:
Le domaine de recherche dans l'évaluation objective de la qualité des images couleur a connu un regain d'intérêt ces dernières années. Les travaux sont essentiellement dictés par l'avènement des images numérique et par les nouveaux besoins en codage d'images (compression, transmission, restauration, indexation,…). Jusqu'à présent la meilleure évaluation reste visuelle (donc subjective) soit par des techniques psychophysiques soit par évaluation experte. Donc, il est utile, voire nécessaire, de mettre en place des critères et des mesures objectifs qui produisent automatiquement des notes de qualité se rapprochant le plus possible des notes de qualité données par l'évaluation subjective. Nous proposons, tout d'abort, une nouvelle métrique avec référence d'évaluation de la qualité des images couleur, nommée Delta E globale, se base sur l'aspect couleur et intègre les caractéristiques du système visuel humain (SVH). Les performances ont été mesurées dans deux domaines d'application la compression et la restauration. Les expérimentations réalisées montrent une corrélation importante entre les résultats obtenus et l'appréciation subjective. Ensuite, nous proposons une nouvelle approche d'évaluation sans référence de la qualité des images couleur en se basant sur les réseaux de neurones : compte tenu du caractère multidimensionnel de la qualité d'images, une quantification de la qualité a été proposée en se basant sur un ensemble d'attributs formant le descripteur PN (Précision, Naturalité). La précision traduit la netteté et la clarté. Quant à la naturalité, elle traduit la luminosité et la couleur. Pour modéliser le critère de la couleur, trois métriques sans référence ont été définies afin de détecter la couleur dominante dans l'image, la proportion de cette couleur et sa dispersion spatiale. Cette approche se base sur les réseaux de neurones afin d'imiter la perception du SVH. Deux variantes de cette approche ont été expérimentées (directe et progressive). Les résultats obtenus ont montré la performance de la variante progressive par rapport à la variante directe. L'application de l'approche proposée dans deux domaines : dans le contexte de la restauration, cette approche a servi comme un critère d'arrêt automatique pour les algorithmes de restauration. De plus, nous l'avons utilisé au sein d'un système d'estimation de la qualité d'images afin de détecter automatiquement le type de dégradation contenu dans une image. Dans le contexte de l'indexation et de la recherche d'images, l'approche proposée a servi d'introduire la qualité des images de la base comme index. Les résultats expérimentaux ont montré l'amélioration des performances du système de recherche d'images par le contenu en utilisant l'index qualité ou en réalisant un raffinement des résultats avec le critère de qualité
The research area in the objective quality assessment of the color images has been a renewed interest in recent years. The work is primarily driven by the advent of digital pictures and additional needs in image coding (compression, transmission, recovery, indexing,...). So far the best evaluation is visual (hence subjective) or by psychophysical techniques or by expert evaluation. Therefore, it is useful, even necessary, to establish criteria and objectives that automatically measures quality scores closest possible quality scores given by the subjective evaluation. We propose, firstly, a new full reference metric to assess the quality of color images, called overall Delta E, based on color appearance and incorporates the features of the human visual system (HVS). Performance was measured in two areas of application compression and restoration. The experiments carried out show a significant correlation between the results and subjective assessment.Then, we propose a new no reference quality assessmenent color images approach based on neural networks: given the multidimensional nature of image quality, a quantification of quality has been proposed, based on a set of attributes forming the descriptor UN (Utility, Naturalness). Accuracy reflects the sharpness and clarity. As for naturality, it reflects the brightness and color. To model the criterion of color, three no reference metrics were defined to detect the dominant color in the image, the proportion of that color and its spatial dispersion. This approach is based on neural networks to mimic the HVS perception. Two variants of this approach have been tried (direct and progressive). The results showed the performance of the progressive variant compared to the direct variant. The application of the proposed approach in two areas: in the context of restoration, this approach has served as a stopping criterion for automatic restoration algorithms. In addition, we have used in a system for estimating the quality of images to automatically detect the type of content in an image degradation. In the context of indexing and image retrieval, the proposed approach was used to introduce the quality of images in the database as an index. The experimental results showed the improvement of system performance image search by content by using the index or by making a quality refinement results with the quality criterion
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Pollet, Arnaud. „Combinaison des techniques de géodésie spatiale : contributions aux réalisations des systèmes de référence et à la détermination de la rotation de la Terre“. Observatoire de Paris (1667-....), 2011. https://hal.science/tel-02094987.

Der volle Inhalt der Quelle
Annotation:
Les travaux de cette thèse portent sur les combinaisons d'observations obtenues par les techniques de géodésie spatiale DORIS, GPS, SLR et VLBI. Cette approche de combinaison au niveau des observations fait actuellement l'objet de différentes expériences, notamment dans le cadre du groupe de travail COL (Combination at the Observation Level) de l'IERS. Afin d'obtenir les meilleurs résultats possibles, la définition d'un repère terrestre combiné homogène est nécessaire. Je me suis donc attaché ici à obtenir la meilleure réalisation possible du système de référence terrestre. Dans ce but, différentes approches ont été testées. Un nouveau modèle de combinaison a été développé, qui permet l'obtention d'un repère terrestre homogène. L'apport des rattachements locaux entre instruments co-localisés et leur impact sur l'homogénéité des repères combinés hebdomadaires ont également été analysés. Pour cela, j'ai adapté une méthode de traitement des données GPS par sous-réseaux afin de disposer d'un réseau GPS dense et d'un grand nombre de stations co-localisées. Pour renforcer les liens entre les techniques, l'utilisation de délais troposphériques zénithaux communs et de liens spatiaux via des satellites multi-techniques a été étudié et j'ai démontré leur pertinence. Enfin, une telle combinaison a été réalisée sur l'année 2005. Ce travail a ainsi permis d'obtenir des séries temporelles d'EOP et de positions de stations bénéficiant de l'homogénéité des traitements réalisés et de la meilleure résolution temporelle (notamment en ce qui concerne les EOP) et exactitude de chacune des quatre techniques utilisées dans la combinaison
This PhD Thesis deals with the combinations of observations provided by the space geodetic techniques DORIS, GPS, SLR, and VLBI. These combinations are currently under investigation, especially in the framework of the IERS working group COL (Combination at the Observation Level). In order to obtain the best possible results with this approach, a homogeneous combined terrestrial frame is needed. Effort has also been made here to obtain the best possible realization of the terrestrial reference system. To achieve this goal, I have tested several approaches of combinations at the observation level. A new model of combination is proposed, which allows us to obtain a homogeneous frame. The contribution of the local ties between co-located stations and their impact regarding the homogeneity of the weekly combined frames are analysed too. To do that, I have adapted a GPS data processing by sub-networks in order to have a dense GPS network and a large number of co-located stations. To strengthen the links between the techniques, the uses of common zenithal tropospheric delays and spatial links via multi-technique satellites, are studied and I have proved their relevance. Finally, a combination at the observation level is performed for the year 2005. This work has also allowed to obtain EOP and station positions time series which take advantage of the processing consistency and of the best qualities, regarding the temporal resolution and the accuracy, of each technique used in the combination
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Salido-Ruiz, Ricardo Antonio. „Problèmes inverses contraints en EEG : applications aux potentiels absolus et à l'influence du signal de référence dans l'analyse de l'EEG“. Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0403.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre du prétraitement des signaux EEG et s'intéresse plus particulièrement aux perturbations dues à la référence de mesure non nulle. Les perturbations induites par une fluctuation électrique de la référence peuvent engendrer des erreurs d'analyse comme on peut aisément le constater sur les mesures de synchronisation inter-signaux (par exemple la cohérence). Donc, la référence idéale serait une référence nulle. Au cours des travaux développés, nous nous sommes concentrés sur l'estimation des potentiels électriques dit absolus (référence nulle) à partir d'une reformulation du problème inverse. Deux cas sont traités, soit la référence est suffisamment éloignée des sources électrophysiologiques cérébrales et de fait elle peut être considérée comme indépendante, sinon, elle est modélisée comme une combinaison linéaire des autres sources. Grâce à cette modélisation, il a été montré explicitement que les meilleures estimations des potentiels absolus sans aucune information a priori sont les potentiels calculés par rapport à une référence moyenne. D'autre part, le problème inverse de la référence source-indépendante est résolu dans un contexte de type séparation de sources. Il a été démontré que la meilleure estimation des potentiels absolus sans aucune information a priori est équivalente à l'estimateur MPDR/MVDR (Minimum Power Distortionless Response/Minimum Variance Distortionless Response). Concernant le prétraitement de données EEG, on montre sur signaux simulés et réels que les potentiels mesurés transformés en référence moyenne améliorent certaines méthodes d'analyse utilisées en EEG telles que la séparation aveugle des sources (BSS) et la localisation de sources cérébrales. Au delà des problèmes de référence, la méthode peut être appliquée sous contraintes pour estimer de façon plus robuste des sources singulières telles que les artefacts ou une stimulation électrique exogène déterministe
This thesis concerns the issue of scalp EEG signals pre-processing and it is focused on signal's disturbances caused by non zero reference measurements. These signals perturbations induced by an electrical fluctuation of reference signal can lead to misinterpretation errors in certains analysis. This can be easily seen in inter-signal synchronization measurements such as in coherence studies. Thus, the ideal reference is a null reference. During this research work, we focused on the absolute (zero-reference) potentials estimation from a inverse problem reformulation. Here, two cases are treated, one deals with the case of a reference signal that is sufficiently distant from electrophysiological brain sources so, it is considered as independent signal ; otherwise, it is modeled as a linear combination of sources. Thanks to this modeling, it was shown explicitly that the best estimates of absolute potentials without any a priori information are the average reference potentials. On the other hand, the source-independent reference inverse problem is resolved in a source separation context. For this case, it has been shown that the best estimate of the absolute potentials without any a priori information is equivalent to Minimum Power Distortionless Response/Minimum Variance Distortionless Response (MVDR/MPDR) estimators. On the pretreatment of EEG data, we show on simulated and real signals that measured potentials transformed into average reference improve certain analytical methods used in EEG such as blind source separation (BSS) and localization of brain sources. Beyond the problems of reference, this method can be applied as a constrained source estimation algorithm in order to estimate in a more robust way, particular sources such as artifacts or deterministic exogenous electrical stimulation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Roussel, Bénédicte. „Détection des anticorps anti-jo-1, anti-mitochondries de type 2 et anti-ribosomes : comparaison du dot-blot avec les techniques de références“. Paris 5, 1996. http://www.theses.fr/1996PA05P012.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Salido-Ruiz, Ricardo Antonio. „Problèmes inverses contraints en EEG : applications aux potentiels absolus et à l'influence du signal de référence dans l'analyse de l'EEG“. Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0403/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le cadre du prétraitement des signaux EEG et s'intéresse plus particulièrement aux perturbations dues à la référence de mesure non nulle. Les perturbations induites par une fluctuation électrique de la référence peuvent engendrer des erreurs d'analyse comme on peut aisément le constater sur les mesures de synchronisation inter-signaux (par exemple la cohérence). Donc, la référence idéale serait une référence nulle. Au cours des travaux développés, nous nous sommes concentrés sur l'estimation des potentiels électriques dit absolus (référence nulle) à partir d'une reformulation du problème inverse. Deux cas sont traités, soit la référence est suffisamment éloignée des sources électrophysiologiques cérébrales et de fait elle peut être considérée comme indépendante, sinon, elle est modélisée comme une combinaison linéaire des autres sources. Grâce à cette modélisation, il a été montré explicitement que les meilleures estimations des potentiels absolus sans aucune information a priori sont les potentiels calculés par rapport à une référence moyenne. D'autre part, le problème inverse de la référence source-indépendante est résolu dans un contexte de type séparation de sources. Il a été démontré que la meilleure estimation des potentiels absolus sans aucune information a priori est équivalente à l'estimateur MPDR/MVDR (Minimum Power Distortionless Response/Minimum Variance Distortionless Response). Concernant le prétraitement de données EEG, on montre sur signaux simulés et réels que les potentiels mesurés transformés en référence moyenne améliorent certaines méthodes d'analyse utilisées en EEG telles que la séparation aveugle des sources (BSS) et la localisation de sources cérébrales. Au delà des problèmes de référence, la méthode peut être appliquée sous contraintes pour estimer de façon plus robuste des sources singulières telles que les artefacts ou une stimulation électrique exogène déterministe
This thesis concerns the issue of scalp EEG signals pre-processing and it is focused on signal's disturbances caused by non zero reference measurements. These signals perturbations induced by an electrical fluctuation of reference signal can lead to misinterpretation errors in certains analysis. This can be easily seen in inter-signal synchronization measurements such as in coherence studies. Thus, the ideal reference is a null reference. During this research work, we focused on the absolute (zero-reference) potentials estimation from a inverse problem reformulation. Here, two cases are treated, one deals with the case of a reference signal that is sufficiently distant from electrophysiological brain sources so, it is considered as independent signal ; otherwise, it is modeled as a linear combination of sources. Thanks to this modeling, it was shown explicitly that the best estimates of absolute potentials without any a priori information are the average reference potentials. On the other hand, the source-independent reference inverse problem is resolved in a source separation context. For this case, it has been shown that the best estimate of the absolute potentials without any a priori information is equivalent to Minimum Power Distortionless Response/Minimum Variance Distortionless Response (MVDR/MPDR) estimators. On the pretreatment of EEG data, we show on simulated and real signals that measured potentials transformed into average reference improve certain analytical methods used in EEG such as blind source separation (BSS) and localization of brain sources. Beyond the problems of reference, this method can be applied as a constrained source estimation algorithm in order to estimate in a more robust way, particular sources such as artifacts or deterministic exogenous electrical stimulation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Gao, Bo. „Contribution à la synthèse de commandes référencées vision 2D multi-critères“. Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00119789.

Der volle Inhalt der Quelle
Annotation:
Cette thèse concerne la synthèse de lois commande référencées vision 2D, multi-critères, pour le positionnement, par rapport à une cible fixe ou mobile, d'une caméra orientable en lacet en mouvement dans le plan horizontal. La fréquence et la qualité des informations délivrées par les caméras CCD qui équipent aujourd'hui les robots rend en effet possible l'alimentation directe des boucles de commande à partir des mesures visuelles de l'environnement. Le modèle considéré est défini dans le cadre du formalisme des fonctions de tâches et s'appuie sur la notion de torseur d'interaction qui permet de relier le mouvement de la caméra à la variation des indices visuels. L'objectif de ce travail est de proposer des lois de commandes permettant de stabiliser la caméra sur la base des informations bidimensionnelles issues de l'image, en tenant compte de l'incertitude sur la profondeur des points de la cible, des contraintes de visibilité et des limites en amplitude sur la vitesse et l'accélération de la caméra. La méthode proposée met en oeuvre des techniques de commande avancées. Elle est basée sur la satisfaction d'une condition de secteur modifiée permettant de prendre en compte la saturation de l'accélération et la description du système en boucle fermée via un modèle polytopique des incertitudes. Cette approche permet de formuler des conditions constructives pouvant être exprimées sous forme d'Inégalités Linéaires Matricielles (LMIs). Sur cette base, la résolution de problèmes d'optimisation convexe permet d'une part de maximiser la région de stabilité associée et d'autre part de déterminer le gain stabilisant du correcteur. La technique, initialement appliquée au problème du positionnement de la caméra par rapport à une cible fixe, est ensuite étendue au suivi d'une cible mobile en considérant la vitesse inconnue de la cible comme une perturbation bornée en énergie. L'intérêt de ce type de résultat, pour l'élaboration de stratégies de navigation d'un robot mobile pa r enchaînement de tâches référencées capteurs, est ensuite mis en évidence. Plusieurs exemples d'enchaînement de tâches sont tour à tour considérés et simulés sur la base d'un modèle de robot à roues muni de capteurs de proximité et supportant une caméra montée sur une platine orientable en azimut.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Borgetto, Manon. „Contribution à la construction de mosaïques d'images sous-marines géo-référencées par l'introduction de méthodes de localisation“. Phd thesis, Université du Sud Toulon Var, 2005. http://tel.archives-ouvertes.fr/tel-00009564.

Der volle Inhalt der Quelle
Annotation:
En milieu sous-marin, les mosaïques d'images collectées par un véhicule en déplacement permettent d'obtenir des cartes visuelles d'une zone d'intérêt. La trajectoire estimée du véhicule par simple intégration des vecteurs vitesse présente une dérive qui se répercute dans la mosaïque (en particulier lorsque le véhicule recoupe sa propre trajectoire). Le travail de cette thèse a consisté à estimer de la façon la plus précise la trajectoire du véhicule à partir de mesures de cap et de vitesse et d'une séquence d'images, en tenant compte des lieux de recoupement (ou points de rendez-vous). Nous estimons dans un premier temps ces couples d'instants par appariement d'images, puis les introduisons dans l'algorithme de localisation du véhicule. Dans un deuxième temps, la mosaïque est reconstruite. La méthodologie proposée ici devrait permettre de peaufiner encore la cartographie dans la mesure où les variances des paramètres de mouvement estimés par les images seules sont disponibles. Dans ce cas, une fusion des deux trajectoires est réalisable. Si ce n'est pas le cas, la cartographie visuelle est finalement améliorée au moyen de techniques de déformation d'images.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Folio, David. „Stratégies de commande référencées multi-capteurs et gestion de la perte du signal visuel pour la navigation d’un robot mobile“. Toulouse 3, 2007. http://www.theses.fr/2007TOU30253.

Der volle Inhalt der Quelle
Annotation:
L'amélioration des capteurs a permis l'émergence de la commande référencée capteurs qui permet la réalisation de diverses tâches de navigation de façon précises. L'intention de cette thèse est de contribuer à définir des stratégies de commande référencées multicapteurs pour un robot mobile réalisant une tâche référencée vision dans un environnement encombré d'obstacles susceptibles d'occulter le motif visuel. Nous avons ainsi proposé des lois de commandes permettant d'éviter à la fois les occultations et les collisions. Toutefois,les résultats obtenus ont montré que chercher à éviter simultanément ces deux phénomènes sur-contraignait le mouvement du robot,limitant la gamme des missions réalisables. Nous avons alors proposé une approche alternative consistant à tolérer la perte totale du signal visuel. Nous avons ainsi proposé dans un cadre général plusieurs méthodes (analytiques et numériques) de reconstruction du signal visuel lorsqu'il devient indisponible
The recent sensors improvement gave rise to the sensor-based control which allows to perform various and accurate navigation tasks. This thesis aims at developing sensorbased control laws allowing a mobile robot to perform vision-based tasks amidst possibly occluding obstacles. Indeed,it is necessary to preserve not only the robot safety (ie. Noncollision) but also the visual features visibility. Thus,we have first proposed techniques able to fulfill simultaneously the two previously mentioned objectives. However,avoiding both collisions and occlusions often over-strained the robotic navigation task,reducing the range of realizable missions. This is the reason why we have developed a second approach which lets the visual features loss occurs if it is necessary for the task realization. Using the link between vision and motion,we have proposed different methods (analytical and numerical) to compute the visual signal as soon it becomes totally unavailable
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Monnin, Alexandre. „Vers une philosophie du Web : le Web comme devenir-artefact de la philosophie (entre URIs, tags, ontologie (s) et ressources)“. Phd thesis, Université Panthéon-Sorbonne - Paris I, 2013. http://tel.archives-ouvertes.fr/tel-00879147.

Der volle Inhalt der Quelle
Annotation:
Cette thèse entend prendre acte de l'importance du Web d'un point de vue philosophique. Importance double : à la fois comme objet de recherche, qui, dans le sillage du Web Sémantique et de l'architecture du Web, à des titres divers, entre en résonance évidente avec les problématiques classiques de la métaphysique et de la philosophie du langage. Dans cette perspective, nous étudions quelques-uns de ses composants principaux (URI, ressources, tags, etc.). En parallèle, nous soulignons son importance au regard de la question du devenir de la philosophie elle-même. En effet, le travail entrepris ne s'est nullement contenté de projeter les concepts à priori d'une philosophia perennis. Il a consisté, au contraire, à interroger les architectes du Web eux-mêmes pour faire émerger leur métaphysique empirique, en observant les controverses qu'elle a suscitées. Prendre acte de la portée ontogonique d'une pratique telle que " l'ingénierie philosophique ", selon l'expression de Tim Berners-Lee, pensée ici comme la production de nouvelles distinctions dans un monde en train de se faire, nous conduit à mener une réflexion plus vaste sur la nature de l'objectivation. Celle-ci rejoint en fin de compte des préoccupations politiques, dans la perspective de l'établissement d'un monde commun, auquel le Web participe activement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Mathé, Anne-Cécile. „Jeux et enjeux de langage dans la construction d'un vocabulaire de géométrie spécifique et partagé en cycle 3 (Analyse de la portée des jeux de langage dans un Atelier de géométrie en cycle 3 et modélisation des gestes de l'enseignant en situation)“. Phd thesis, Université Claude Bernard - Lyon I, 2006. http://tel.archives-ouvertes.fr/tel-00345659.

Der volle Inhalt der Quelle
Annotation:
A partir de l'analyse d'un dispositif d'Atelier de géométrie en cycle 3, cette thèse montre comment les « jeux de langage » produits par la résolution de situations problématiques sur les solides peuvent favoriser la construction par les élèves de nouvelles connaissances relatives à un vocabulaire de géométrie spécifique.
Grâce à l'élaboration d'une méthodologie originale d'analyse des gestes de l'enseignant, cette recherche propose également de rendre compte du rôle et de la place de l'enseignant dans de telles interactions langagières. Pour ce faire, nous proposons d'expliciter ses modalités effectives d'intervention puis de modéliser son action en situation en termes de tutelle et de médiation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Kane, Khardiatou. „Documentation numérique en Afrique francophone subsaharienne : évaluation de l'offre et des usages en sciences humaines à l'Université Cheikh Anta Diop de Dakar“. Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1185/document.

Der volle Inhalt der Quelle
Annotation:
Les bibliothèques universitaires des pays d’Afrique francophone sont confrontées à un défi en matière d’offre documentaire dans un contexte marqué par un manque de moyens financiers, une augmentation des coûts de la documentation, et certaines formes organisationnelles peu efficientes. Cette thèse vise dans un premier temps, à partir d’enquêtes et de recueils de données diversifiées, à dresser l’état de l’offre documentaire papier et numérique à l’Université Cheikh Anta Diop de Dakar, en Sciences humaines et sociales (SHS), tout en soulignant des points de comparaison avec d’autres universités francophones subsahariennes. Les résultats visent à quantifier et à qualifier cette offre, à pointer les nouvelles dynamiques dans le cadre de la documentation numérique avec différents types d’acteurs. Par ailleurs, les bibliothécaires cherchent à s’appuyer pleinement sur l’Open Access tant au niveau de l’accès à des ressources qu’au niveau de la valorisation des fonds locaux. L’information numérique est de plus en plus perçue comme le meilleur moyen de satisfaire les besoins en information de la communauté universitaire de l’Université Cheikh Anta Diop (UCAD) de Dakar. Néanmoins, elle est souvent confrontée à des problèmes d’accès à l’information mais également d’usage des ressources documentaires. Cette recherche s’intéresse, dans une seconde partie, à l’appréciation de l’usage des ressources numériques, une appréciation qui se fera comparativement entre plusieurs disciplines de l’UCAD et entre enseignants et étudiants de ladite université. Des recommandations sont formulées dans la troisième partie pour tenter d’y améliorer les services documentaires
University libraries in French-speaking African countries face a documentary supply challenge in a context of a lack of financial resources, an increase in the cost of documentation, and some inefficient organizational forms. This thesis aims at first, from surveys and collections of diverse data, to establish the state of the paper and digital documentary offer at the University Cheikh Anta Diop of Dakar, in SHS, highlighting points comparison with other Sub-Saharan Francophone Universities. The results are intended to quantify and qualify this offer, to point out new dynamics in the context of digital documentation with different types of actors. In addition, librarians seek to rely fully on Open Access, both in terms of access to resources and the value of local funds. Digital information is increasingly seen as the best way to meet the information needs of the university community at Dakar's Cheikh Anta Diop University (UCAD). Nevertheless, it is often confronted with problems of access to information but also of use of documentary resources. This research focuses, in a second part, to appreciate the uses of digital resources, in a comparative way between several disciplines at UCAD and between teachers and students. Recommendations are made to try to improve the documentary services in this University
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Gastaud, Muriel. „Modèles de contours actifs pour la segmentation d'images et de vidéos“. Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00089384.

Der volle Inhalt der Quelle
Annotation:
La segmentation en objets d'une image consiste à extraire de l'image des régions d'intérêt suivant un critère défini. Nous segmentons l'image par un algorithme de contours actifs dans le cadre d'une approche variationnelle. Partant d'un contour initial quelconque, le contour actif évolue, suivant une équation aux dérivées partielles. L'équation d'évolution du contour actif est déduite de la dérivation du critère. Au vu de la dépendance du critère à la région considérée, la dérivation du critère par rapport à la région n'est pas aisée. Nous utilisons des outils de dérivation empruntés à l'optimisation de domaine: les gradients de forme.
La contribution de cette thèse réside dans l'élaboration et l'étude de différents descripteurs de région. Pour chaque critère, nous calculons la dérivée du critère à l'aide des gradients de forme, et en déduisons l'équation d'évolution du contour actif.
Le premier descripteur définit un a priori géométrique sans contrainte paramétrique: il minimise la distance du contour actif à un contour de référence. Nous l'avons appliqué à la déformation de courbe, la segmentation et le suivi de cible.
Le deuxième descripteur caractérise le mouvement de l'objet par un modèle de mouvement. Le critère associé définit conjointement une région et son mouvement sur plusieurs images consécutives. Nous avons appliqué ce critère à l'estimation et la segmentation conjointe du mouvement et au suivi d'objets en mouvement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Zeloufi, Mohamed. „Développement d’un convertisseur analogique-numérique innovant dans le cadre des projets d’amélioration des systèmes d’acquisition de l’expérience ATLAS au LHC“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT115.

Der volle Inhalt der Quelle
Annotation:
À l’horizon 2024, l’expérience ATLAS prévoit de fonctionner à des luminosités 10 fois supérieures à la configuration actuelle. Par conséquent, l’électronique actuelle de lecture ne correspondra pas aux conditions de ces luminosités. Dans ces conditions, une nouvelle électronique devra être conçue. Cette mise à niveau est rendue nécessaire aussi par les dommages causés par les radiations et le vieillissement. Une nouvelle carte frontale va être intégrée dans l’électronique de lecture du calorimètre LAr. Un élément essentiel de cette carte est le Convertisseur Analogique-Numérique (CAN) présentant une résolution de 12bits pour une fréquence d’échantillonnage de 40MS/s, ainsi qu’une résistance aux irradiations. Compte tenu du grand nombre des voies, ce CAN doit remplir des critères sévères sur la consommation et la surface. Le but de cette thèse est de concevoir un CAN innovant qui peut répondre à ces spécifications. Une architecture à approximations successives (SAR) a été choisie pour concevoir notre CAN. Cette architecture bénéficie d’une basse consommation de puissance et d’une grande compatibilité avec les nouvelles technologies CMOS. Cependant, le SAR souffre de certaines limitations liées principalement aux erreurs de décisions et aux erreurs d’appariement des capacités du CNA. Deux prototypes de CAN-SAR 12bits ont été modélisés en Matlab afin d’évaluer leur robustesse. Ensuite les conceptions ont été réalisées dans une technologie CMOS 130nm d’IBM validée par la collaboration ATLAS pour sa tenue aux irradiations. Les deux prototypes intègrent un algorithme d’approximations avec redondance en 14 étapes de conversion, qui permet de tolérer des marges d’erreurs de décisions et d’ajouter une calibration numérique des effets des erreurs d’appariement des capacités. La partie logique de nos CAN est très simplifiée pour minimiser les retards de génération des commandes et la consommation d’énergie. Cette logique exécute un algorithme monotone de commutation des capacités du CNA permettant une économie de 70% de la consommation dynamique par rapport à un algorithme de commutation classique. Grâce à cet algorithme, une réduction de capacité totale est aussi obtenue : 50% en comparant notre premier prototype à un seul segment avec une architecture classique. Pour accentuer encore plus le gain en termes de surface et de consommation, un second prototype a été réalisé en introduisant un CNA à deux segments. Cela a abouti à un gain supplémentaire d’un facteur 7,64 sur la surface occupée, un facteur de 12 en termes de capacité totale, et un facteur de 1,58 en termes de consommation. Les deux CAN consomment respectivement une puissance de ~10,3mW et ~6,5mW, et ils occupent respectivement une surface de ~2,63mm2 et ~0,344mm2.Afin d’améliorer leurs performances, un algorithme de correction numérique des erreurs d’appariement des capacités a été utilisé. Des buffers de tensions de référence ont étés conçus spécialement pour permettre la charge/décharge des capacités du convertisseur en hautes fréquences et avec une grande précision. En simulations électriques, les deux prototypes atteignent un ENOB supérieur à 11bits tout en fonctionnant à la vitesse de 40MS/s. Leurs erreurs d’INL simulés sont respectivement +1,14/-1,1LSB et +1,66/-1,72LSB.Les résultats de tests préliminaires du premier prototype présentent des performances similaires à celles d’un CAN commercial de référence sur notre carte de tests. Après la correction, ce prototype atteint un ENOB de 10,5bits et un INL de +1/-2,18LSB. Cependant suite à une panne de carte de tests, les résultats de mesures du deuxième prototype sont moins précis. Dans ces circonstances, ce dernier atteint un ENOB de 9,77bits et un INL de +7,61/-1,26LSB. En outre la carte de tests actuelle limite la vitesse de fonctionnement à ~9MS/s. Pour cela une autre carte améliorée a été conçue afin d’atteindre un meilleur ENOB, et la vitesse souhaitée. Les nouvelles mesures vont être publiées dans le futur
By 2024, the ATLAS experiment plan to operate at luminosities 10 times the current configuration. Therefore, many readout electronics must be upgraded. This upgrade is rendered necessary also by the damage caused by years of total radiations’ effect and devices aging. A new Front-End Board (FEB) will be designed for the LAr calorimeter readout electronics. A key device of this board is a radiation hard Analog-to-Digital Converter (ADC) featuring a resolution of 12bits at 40MS/s sampling rate. Following the large number of readout channels, this ADC device must display low power consumption and also a low area to easy a multichannel design.The goal of this thesis is to design an innovative ADC that can deal with these specifications. A Successive Approximation architecture (SAR) has been selected to design our ADC. This architecture has a low power consumption and many recent works has shown his high compatibility with modern CMOS scaling technologies. However, the SAR has some limitations related to decision errors and mismatches in capacitors array.Using Matlab software, we have created the models for two prototypes of 12bits SAR-ADC which are then used to study carefully their limitations, to evaluate their robustness and how it could be improved in digital domain.Then the designs were made in an IBM 130nm CMOS technology that was validated by the ATLAS collaboration for its radiation hardness. The prototypes use a redundant search algorithm with 14 conversion steps allowing some margins with comparator’s decision errors and opening the way to a digital calibration to compensate the capacitors mismatching effects. The digital part of our ADCs is very simplified to reduce the commands generation delays and saving some dynamic power consumption. This logic follows a monotonic switching algorithm which saves about70% of dynamic power consumption compared to the conventional switching algorithm. Using this algorithm, 50% of the total capacitance reduction is achieved when one compare our first prototype using a one segment capacitive DAC with a classic SAR architecture. To boost even more our results in terms of area and consumption, a second prototype was made by introducing a two segments DAC array. This resulted in many additional benefits: Compared to the first prototype, the area used is reduced in a ratio of 7,6, the total equivalent capacitance is divided by a factor 12, and finally the power consumption in improved by a factor 1,58. The ADCs respectively consume a power of ~10,3mW and ~6,5mW, and they respectively occupy an area of ~2,63mm2 and ~0,344mm2.A foreground digital calibration algorithm has been used to compensate the capacitors mismatching effects. A high frequency open loop reference voltages buffers have been designed to allow the high speed and high accuracy charge/discharge of the DAC capacitors array.Following electrical simulations, both prototypes reach an ENOB better than 11bits while operating at the speed of 40MS/s. The INL from the simulations were respectively +1.14/-1.1LSB and +1.66/-1.72LSB.The preliminary testing results of the first prototype are very close to that of a commercial 12bits ADC on our testing board. After calibration, we measured an ENOB of 10,5bits and an INL of +1/-2,18LSB. However, due to a testing board failure, the testing results of the second prototype are less accurate. In these circumstances, the latter reached an ENOB of 9,77bits and an INL of +7,61/-1,26LSB. Furthermore the current testing board limits the operating speed to ~9MS/s. Another improved board was designed to achieve a better ENOB at the targeted 40MS/s speed. The new testing results will be published in the future
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie