To see the other types of publications on this topic, follow the link: Virémies de bas niveau.

Dissertations / Theses on the topic 'Virémies de bas niveau'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Virémies de bas niveau.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Palich, Romain. "Impact de la résistance virale acquise dans le passé sur les stratégies antirétrovirales actuelles." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS493.

Full text
Abstract:
Dans le champ de la prise en charge du VIH, aujourd’hui en France, trois situations continuent d’occuper la réflexion : 1) les virémies de bas niveau persistantes, malgré un traitement ARV prolongé et une observance rapportée optimale, 2) la persistance ou la clairance dans le réservoir viral de mutations de résistance sélectionnées dans l’histoire virologique, et 3) l’allègement thérapeutique optimal chez les patients virologiquement contrôlés. Dans un premier travail, nous avons montré que 72% des patients présentant une virémie de bas niveau persistante, déclarant une bonne observance, avaient des concentrations en antirétroviraux optimales dans le sang, et étaient porteurs de virus non résistants au traitement. Deux ans après l’inclusion, 72% gardaient une virémie de bas niveau, sans échec virologique. Dans un deuxième travail, nous avons montré la persistance de la mutation M184V, archivée dans le passé, chez 67% des patients virologiquement contrôlés depuis au moins 5 ans (avec un seuil de détection à 1%), ainsi que la clairance progressive de cette mutation dans le réservoir ADN-VIH. Les deux facteurs associés à la persistance de la M184V étaient la durée et le niveau de réplication sous 3TC/FTC dans le passé. Dans un troisième travail, nous avons montré l’efficacité virologique de bithérapies administrées 5 ou 4 jours par semaines (91% de succès virologique à S96), dans une population longuement exposée aux antirétroviraux. Globalement, ces résultats s’inscrivent dans une volonté d’optimiser les stratégies en réduisant l’exposition aux antirétroviraux, y compris chez les patients ayant une longue histoire virologique et thérapeutique
In the field of HIV management, today in France, three situations continue to concern clinicians: 1) persistent low-level viremia, despite prolonged antiretroviral treatment and good self-reported compliance, 2) persistence or clearance in viral reservoir of resistance mutations selected in the past, and 3) optimal drug-reduced antiretroviral treatment in virally suppressed patients. In a first work, we showed that 72% of patients with persistent low-level viremia, with good self-reported compliance, had adequate plasma antiretroviral concentrations, and no past viral resistance explaining the persistent replication. Two years after inclusion, 72% of patients maintained low-level replication without virologic failure. In a second work, we showed the persistence of the M184V mutation, acquired in the past, in 67% of patients with suppressed viremia >5 years (detection threshold: 1%), as well as the progressive clearance of the mutation in the HIV-DNA reservoir. The two factors associated with the persistence of M184V were the duration and the level of replication under 3TC/FTC in the past. In a third work, we showed the virological efficacy of dual therapies given 5 or 4 days a week (virological success: 91% at W96), in a population highly exposed to antiretroviral treatment. Overall, these findings support the optimization of strategies, in order to reduce the exposure to antiretrovirals, including in patients with a long virological and therapeutic history
APA, Harvard, Vancouver, ISO, and other styles
2

TOUATI, Sid-Ahmed-Ali. "Méthodes d'optimisations de programmes bas niveau." Habilitation à diriger des recherches, Université de Versailles-Saint Quentin en Yvelines, 2010. http://tel.archives-ouvertes.fr/tel-00665897.

Full text
Abstract:
Ce manuscrit synthétise plus d'une décade de notre recherche académique sur le sujet d'optimisation de codes bas niveau, dont le but est une intégration dans un compilateur optimisant ou dans un outil d'optimisation semi-automatique. Dans les programmes bas niveau, les caractéristiques du processeur sont connues et peuvent être utilisées pour générer des codes plus en harmonie avec le matériel. Nous commençons notre document par une vue générale sur le problème d'ordonnancement des phases de compilation. Actuellement, des centaines d'étapes de compilation et d'optimisation de codes existent; un problème fondamental et ouvert reste de savoir comment les combiner et les ordonner efficacement. Pour pallier rapidement cette difficulté, une stratégie du moindre effort consiste à appliquer une compilation itérative en exécutant successivement le programme avant de décider de la technique d'optimisation de code à employer et avec quels paramètres. Nous prouvons que l'approche de compilation itérative ne simpli fie pas fondamentalement le problème, et l'utilisation de modèles statiques de performances reste un choix raisonnable. Un problème classique de con it entre deux étapes de compilation est celui qui lie l'allocation de registres et l'ordonnancement d'instructions. Nous montrons comment gérer efficacement cet antagonisme en séparant les contraintes de registres des contraintes d'ordonnancement d'instructions. Cela est possible grâce à la notion de saturation en registres (RS), qui est le besoin maximal en registres pour tous les ordonnancements possibles d'un graphe. Nous apportons une contribution formelle et une heuristique efficace, qui permettent la détection de contraintes de registres toujours véri fiées; ils peuvent par conséquent être négligées. Nous introduisons la plate-forme SIRA, qui permet de garantir l'absence de code de vidage avant l'ordonnancement d'instructions. SIRA est un modèle basé sur la théorie des graphes permettant de borner le besoin maximal en registres pour tout pipeline logiciel, sans altérer, si possible, le parallélisme d'instructions. SIRA modélise les contraintes cycliques des registres dans différentes architectures possibles : avec plusieurs types de registres, avec tampons ou les d'attente, et avec des bancs de registres rotatifs. Nous apportons une heuristique efficace qui montre des résultats satisfaisants, que ce soit comme outil indépendant, ou comme passe intégrée dans un vrai compilateur. Dans le contexte des processeurs exhibant des retards d'accès aux registres (VLIW, EPIC, DSP), nous attirons l'attention sur le problème qui peut survenir lorsque les contraintes de registres sont traitées avant l'ordonnancement d'instructions. Ce problème est la création de circuits négatifs ou nuls dans le graphe de dépendances de données. Nous montrons comment éliminer ces circuits indésirables dans le contexte de SIRA. SIRA définit une relation formelle entre le nombre de registres alloués, le parallélisme d'instructions et le facteur de déroulage d'une boucle. Nous nous basons sur cette relation pour écrire un algorithme optimal qui minimise le facteur de déroulage tout en sauvegardant le parallélisme d'instructions et en garantissant l'absence de code de vidage. D'après nos connaissances, ceci est le premier résultat qui démontre que le compactage de la taille de code n'est pas un objectif antagoniste à l'optimisation des performances de code. L'interaction entre la hiérarchie mémoire et le parallélisme d'instructions est un point central si l'on souhaite réduire le coût des latences d'opérations de chargement. Premièrement, notre étude pratique avec des micro-benchmarks montre que les processeurs superscalaires ayant une exécution dans le désordre ont un bug de performances dans leur mécanisme de désambiguation mémoire. Nous montrons ensuite qu'une vectorisation des opérations mémoire résoud ce problème pour des codes réguliers. Deuxièmement, nous étudions l'optimisation de préchargement de données pour des codes VLIW embarqués irréguliers. Finalement, avec l'arrivée des processeurs multicoeurs, nous observons que les temps d'exécution des programmes deviennent très variables. A fin d'améliorer la reproductibilité des résultats expérimentaux, nous avons conçu le Speedup-Test, un protocole statistique rigoureux. Nous nous basons sur des tests statistiques connus (tests de Shapiro-Wilk, F de Fisher, de Student, de Kolmogorov-Smirnov, de Wilcoxon- Mann-Whitney) a n d'évaluer si une accélération observée du temps d'exécution médian ou moyen est signi cative.
APA, Harvard, Vancouver, ISO, and other styles
3

O'Donnell, Ciaran. "Compilation de haut niveau pour les machines de bas niveau /." Paris : Ecole nationale supérieure des télécommunications, 1994. http://catalogue.bnf.fr/ark:/12148/cb357781912.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Thiaville, Louis. "Réseaux neuromimétiques pour la vision bas-niveau." Grenoble INPG, 1991. http://www.theses.fr/1991INPG0092.

Full text
Abstract:
Cette these propose une methodologie assez generale pour aborder les problemes de la vision bas-niveau. Partant de la constatation que ces problemes sont mal poses (au sens de hadamard), on peut les regulariser en postulant des hypotheses de continuite, ce qui ramene alors a la minimisation d'une fonctionnelle, l'energie a posteriori, integrant les donnees du probleme (l'image) et les contraintes de regularite a priori. Ces hypotheses doivent etre relaxees la ou elles sont manifestement fausses, c'est-a-dire essentiellement aux discontinuites de l'image. C'est pourquoi l'energie a posteriori n'est pas necessairement quadratique. Il est cependant possible d'implanter l'algorithme de minimisation sur un circuit electrique, en interpretant cette fonctionnelle comme une puissance electrique dissipee. De la sorte, on est conduit a considerer des reseaux de diffusion anisotrope, dont la faible connectivite permet effectivement d'envisager la realisation sous forme de circuits integres specifiques. Nous avons applique cette methodologie a trois problemes particuliers: le filtrage et la detection des contours, la segmentation en regions homogenes, et le calcul du mouvement dans une sequence d'images. Au total, on parvient ainsi a une architecture modulaire coherente, dont une integration (wsi) sur une matrice de photodetecteurs permettrait la realisation d'une retine en silicium. La compacite et la rapidite d'un tel circuit seraient d'un grand interet, notamment en robotique autonome mobile
APA, Harvard, Vancouver, ISO, and other styles
5

Plyer, Aurélien. "Architectures massivement parallèles et vision artificielle bas-niveau." Phd thesis, Université Paris-Nord - Paris XIII, 2013. http://tel.archives-ouvertes.fr/tel-00820700.

Full text
Abstract:
Ce travail de thèse étudie l'apport à la vision bas-niveau des architectures de calcul massivement parallèles. Nous reprenons l'évolution récente de l'architecture des ordinateurs, en mettant en avant les solutions massivement parallèles qui se sont imposées récemment, les GPU. L'exploitation des potentialités de ces architectures impose une modification des méthodes de programmation. Nous montrons qu'il est possible d'utiliser un nombre restreint de schémas ("patterns") de calcul pour résoudre un grand nombre de problématiques de vision bas niveau. Nous présentons ensuite un nouveau modèle pour estimer la complexité de ces solutions. La suite du travail consiste à appliquer ces modèles de programmation à des problématiques de vision bas-niveau. Nous abordons d'abord le calcul du flot optique, qui est le champ de déplacement d'une image à une autre, et dont l'estimation est une brique de base de très nombreuses applications en traitement vidéo. Nous présentons un code sur GPU, nommé FOLKI qui permet d'atteindre une très bonne qualité de résultats sur séquences réelles pour un temps de calcul bien plus faible que les solutions concurrentes actuelles. Une application importante de ces travaux concerne la vélocimétrie par imagerie de particules dans le domaine de la mécanique des fluides expérimentale. La seconde problématique abordée est la super-résolution (SR). Nous proposons d'abord un algorithme très rapide de SR utilisant le flot optique FOLKI pour recaler les images. Ensuite différentes solutions à coût de calcul croissant sont développées, qui permettent une amélioration de précision et de robustesse. Nous présentons des résultats très originaux de SR sur des séquences affectées de mouvement complexes, comme des séquences de piétons ou des séquences aériennes de véhicules en mouvement. Enfin le dernier chapitre aborde rapidement des extensions en cours de nos travaux à des contextes de mesure 3D, dans des domaines comme la physique expérimentale ou la robotique.
APA, Harvard, Vancouver, ISO, and other styles
6

Plyer, Aurélien. "Architectures massivement parallèles en vision artificielle bas niveau." Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_plyer.pdf.

Full text
Abstract:
Ce travail de thèse étudie l'apport à la vision bas-niveau des architectures de calcul massivement parallèles. Nous reprenons l'évolution récente de l'architecture des ordinateurs, en mettant en avant les solutions massivement parallèles qui se sont imposées récemment, les GPU. L'exploitation des potentialités de ces architectures impose une modification des méthodes de programmation. Nous montrons qu'il est possible d'utiliser un nombre restreint de schémas ("patterns") de calcul pour résoudre un grand nombre de problématiques de vision bas niveau. Nous présentons ensuite un nouveau modèle pour estimer la complexité de ces solutions. La suite du travail consiste à appliquer ces modèles de programmation à des problématiques de vision bas-niveau. Nous abordons d'abord le calcul du flot optique, qui est le champ de déplacement d'une image à une autre, et dont l'estimation est une brique de base de très nombreuses applications en traitement vidéo. Nous présentons un code sur GPU, nommé FOLKI qui permet d'atteindre une très bonne qualité de résultats sur séquences réelles pour un temps de calcul bien plus faible que les solutions concurrentes actuelles. Une application importante de ces travaux concerne la vélocimétrie par imagerie de particules dans le domaine de la mécanique des fluides expérimentale. La seconde problématique abordée est la super-résolution (SR). Nous proposons d'abord un algorithme très rapide de SR utilisant le flot optique FOLKI pour recaler les images. Ensuite différentes solutions à coût de calcul croissant sont développées, qui permettent une amélioration de précision et de robustesse. Nous présentons des résultats très originaux de SR sur des séquences affectées de mouvement complexes, comme des séquences de piétons ou des séquences aériennes de véhicules en mouvement. Enfin le dernier chapitre aborde rapidement des extensions en cours de nos travaux à des contextes de mesure 3D, dans des domaines comme la physique expérimentale ou la robotique
In this work we study the gain offered by massively parallel architecture for low-level vision processing. Reviewing the recent evolutions of computer architectures, we underline the massively parallel solutions which are now available to every programmer, the GPU. Exploiting the computing power of these solutions requires a change in programming methodology. However, as far as low-level vision is concerned, we show that most problems can be solved using a restricted number of programming patterns. Finally, we propose a new model to evaluate the complexity of solutions developed on GPUs. Then we apply these programming principles to various low-level vision problems. The first one is optical flow (OF) estimation, which is at the core of many video processing problems. We present an OF estimation on GPU, called FOLKI, which allows good estimation quality on various real-world video sequences with unprecedented computing performance. An application of this work concerns particle image velocimetry, a measurement technique of paramount importance for experimental fluid mechanics. Then we turn toward super-resolution (SR). We first introduce an original and very fast solution, which uses the FOLKI optical flow estimate for image registration. Then various solutions of increasing computational complexity are proposed, which lead to better resolution and robustness. Using these techniques we show very original SR results on video with complex motions (walking person, moving vehicle). Finally the last chapter shows on-going work on 3D measurement contexts in experimental physics and robotics
APA, Harvard, Vancouver, ISO, and other styles
7

Laporte, Vincent. "Vérification d’analyses statiques pour langages de bas niveau." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S078/document.

Full text
Abstract:
L'analyse statique des programmes permet d'étudier les comportements possibles des programmes sans les exécuter. Les analyseurs statiques sont employés par exemple pour garantir que l'exécution d'un programme ne peut pas produire d'erreurs. Ces outils d'analyse étant eux-mêmes des programmes, ils peuvent être incorrects. Pour accroître la confiance que l'on peut accorder aux résultats d'une telle analyse, nous étudions dans cette thèse comment on peut formellement établir la correction de l'implantation d'un tel analyseur statique. En particulier, nous construisons au moyen de l'assistant à la preuve Coq des interpréteurs abstraits et prouvons qu'ils sont corrects ; c'est-à-dire nous établissons formellement que le résultat de l'analyse d'un programme caractérise bien toutes les exécutions possibles de ce programme. Ces interpréteurs abstraits s'intègrent, dans la mesure du possible, au compilateur vérifié CompCert, ce qui permet de garantir que les propriétés de sûreté prouvées sur le code source d'un programme sont aussi valides pour la version compilée de ce programme. Nous nous concentrons sur l'analyse de programmes écrits dans des langages de bas niveau. C'est-à-dire des langages qui ne fournissent que peu d'abstractions (variables, fonctions, objets, types…) ou des abstractions que le programmeur a loisir de briser. Cela complexifie la tâche d'un analyseur qui ne peut pas s'appuyer sur ces abstractions pour être précis. Nous présentons notamment comment reconstruire automatiquement le graphe de flot de contrôle de programmes binaires auto-modifiants et comment prouver automatiquement qu'un programme écrit en C (où l'arithmétique de pointeurs est omniprésente) ne peut pas produire d'erreurs à l'exécution
Static analysis of programs enables to study the possible behaviours of programs without running them. Static analysers may be used to guarantee that the execution of a program cannot result in a run-time error. Such analysis tools are themselves programs: they may have bugs. So as to increase the confidence in the results of an analysis, we study in this thesis how the implementation of static analysers can be formally proved correct. In particular, we build abstract interpreters within the Coq proof assistant and prove them correct. Namely, we formally establish that analysis results characterize all possible executions of the analysed program. Such abstract interpreters are integrated to the formally verified CompCert compiler, when relevant ; this enables to guarantee that safety properties that are proved on source code also hold for the corresponding compiled code. We focus on the analysis of programs written in low-level languages. Namely, languages which feature little or no abstractions (variables, functions, objects, types…) or abstractions that the programmer is allowed to break. This hampers the task of a static analyser which thus cannot rely on these abstractions to yield precise results. We discuss in particular how to automatically recover the control-flow graph of binary self-modifying programs, and how to automatically prove that a program written in C (in which pointer arithmetic is pervasive) cannot produce a run-time error
APA, Harvard, Vancouver, ISO, and other styles
8

Boubekeur, Ahmed. "Conception d'architectures intégrées de traitement d'image de bas niveau." Phd thesis, Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00341394.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Weigl, Konrad. "Application des algorithmes neuromimetiques a la vision bas niveau." Nice, 1994. http://www.theses.fr/1994NICE4736.

Full text
Abstract:
Nous avons applique des solutions utilisees par des systemes biologiques de neurones a la resolution de deux problemes de vision bas niveau, la restauration d'images bruitees et la detection de zones urbaines dans les images-satellite. Le premier probleme, vu comme un compromis a trouver entre deux jeux de contraintes, est resolu par modelisation a l'aide d'une trame de neuro-oscillateurs couples qui convergent vers la solution recherchee. Le deuxieme probleme est resolu par un pretraitement de l'image suivi d'une classification avec un reseau neuromimetique multicouche utilisant un nouveau type d'apprentissage supervise
APA, Harvard, Vancouver, ISO, and other styles
10

Loncelle, Jérôme. "Contribution des réseaux connexionnistes au traitement d'image bas niveau." Paris 11, 1990. http://www.theses.fr/1990PA112287.

Full text
Abstract:
La thèse expose l'application des modèles connexionnistes au traitement d'images bas niveau. Le modèle utilisé est le réseau multi-couches entrainé avec l'algorithme de rétro-propagation du gradient. Deux problèmes ont été choisis : la détection de contours et la discrimination de textures. Pour chacun d'eux, un état de l'art est établi, et des solutions à base de réseaux de neurones sont proposées. Des comparaisons entre les différentes méthodes sont effectuées. Au niveau connexionniste, l'accent est mis sur l'introduction de connaissances dans les réseaux via l'architecture, le partage des poids et le choix des fonctions de transition des cellules
APA, Harvard, Vancouver, ISO, and other styles
11

Cardoso, Vanderlei Andrei. "Opérateurs rétiniens spatio-temporels pour la vision "bas-niveau"." Paris 11, 2002. http://www.theses.fr/2002PA112093.

Full text
Abstract:
Ce travail concerne l'étude des opérateurs rétiniens spatiotemporels. La première partie de la thèse analyse les divers opérateurs spatio-temporels et leur intégration au sein de la rétine. Cette étude a été illustrée par la conception d'une rétine pour la détection des cibles ponctuelles sous-pixeliques. L'algorithme implanté dans cette rétine est constitué d'un filtrage complexe et d'un opérateur d'inhibition latérale avec seuillage. L'intégration de ces opérateurs a été possible par la mise en oeuvre d'un simulateur fonctionnel qui a permis de choisir les opérateurs et d'évaluer l'influence des phénomènes de deuxième ordre comme l'injection de charge sur les performances globales du circuit. La rétine a été implantée en technologie CMOS 0. 8 mM. Dans l'annexe de la thèse est présenté un opérateur rétinien original de détéction synchrone qui fonctionne à une cadence de 10 kHz à 1 MHz. Cet opérateur a été implanté en technologie CMOS 0. 6 mM
This work concerns the study of spatio-temporal operators on focal plane arrays. The first chapter of the thesis analyzes the various spatiotemporal operators and their integration within the retina. This survey has been illustrated by the conception of a retina for the tracking of less-than-one-pixel target detection. The algorithm implanted in this retina is constituted of a complex filtering and an operator of lateral inhibition with threshold. The integration of these operators was possible by developing a functional simulator that permitted to choose operators and to evaluate the influence of second order phenomena as the charge injection on the global performances of the circuit. The focal plane array has been implanted in CMOS 0. 8 mM technology. In the first appendix of the thesis is presented an original analog operator for synchronous detection operating from a rate of 10 kHz to 1 MHz. This operator has been implanted in CMOS 0. 6 mM technology
APA, Harvard, Vancouver, ISO, and other styles
12

Wilke, Pierre. "Compilation formellement vérifiée de code C de bas-niveau." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S088/document.

Full text
Abstract:
Cette thèse présente une extension du compilateur CompCert permettant de fournir des garanties formelles de préservation sémantique à des programmes auxquels CompCert n'en donne pas. CompCert est un compilateur pour le langage C vers différentes architectures qui fournit, en plus d'un exécutable compilé, des garanties formelles concernant le comportement du programme assembleur généré. En particulier, tout programme C ayant une sémantique définie selon le standard C est compilé en un programme assembleur équivalent, c'est-à-dire qui a la même sémantique. En revanche, ce théorème n'assure aucune garantie lorsque le programme source n'a pas de sémantique définie : on parle en C de comportement indéfini. Toutefois, des programmes C issus de réels projets largement utilisés contiennent des comportements indéfinis. Cette thèse détaille dans un premier temps un certain nombre d'exemples de programmes C qui déclenchent des comportements indéfinis. Nous argumentons que ces programmes devraient tout de même bénéficier du théorème de préservation sémantique de CompCert, d'abord parce qu'ils apparaissent dans de vrais projets et parce que leur utilisation des comportements indéfinis semble légitime. Dans ce but, nous proposons d'abord un modèle mémoire pour CompCert qui définit l'arithmétique arbitraire de pointeurs et la manipulation de données non initialisées, à l'aide d'un formalisme de valeurs symboliques qui capturent la sémantique d'opérations non définies dans le standard. Nous adaptons l'intégralité du modèle mémoire de CompCert avec ces valeurs symboliques, puis nous adaptons les sémantiques formelles de chacun des langages intermédiaires de CompCert. Nous montrons que ces sémantiques symboliques sont un raffinement des sémantiques existantes dans CompCert, et nous montrons par ailleurs que ces sémantiques capturent effectivement le comportement des programmes sus-cités. Enfin, afin d'obtenir des garanties similaires à celles que CompCert fournit, nous devons adapter les preuves de préservation sémantique à notre nouveau modèle. Pour ce faire, nous généralisons d'importantes techniques de preuves comme les injections mémoire, ce qui nous permet de transporter les preuves de CompCert sur nos nouvelles sémantiques. Nous obtenons ainsi un théorème de préservation sémantique qui traite plus de programmes C
This thesis presents an extension of the CompCert compiler that aims at providing formal guarantees about the compilation of more programs than CompCert does. The CompCert compiler compiles C code into assembly code for various architectures and provides formal guarantees about the behaviour of the compiled assembly program. It states that whenever the C program has a defined semantics, the generated assembly program behaves similarly. However, the theorem does not provide any guarantee when the source program has undefined semantics, or, in C parlance, when it exhibits undefined behaviour, even though those behaviours actually happen in real-world code. This thesis exhibits a number of C idioms, that occur in real-life code and whose behaviour is undefined according to the C standard. Because they happen in real programs, our goal is to enhance the CompCert verified compiler so that it also provides formal guarantees for those programs. To that end, we propose a memory model for CompCert that makes pointer arithmetic and uninitialised data manipulation defined, introducing a notion of symbolic values that capture the meaning of otherwise undefined idioms. We adapt the whole memory model of CompCert with this new formalism and adapt the semantics of all the intermediate languages. We prove that our enhanced semantics subsumes that of CompCert. Moreover, we show that these symbolic semantics capture the behaviour of the previously undefined C idioms. The proof of semantic preservation from CompCert needs to be reworked to cope with our model. We therefore generalize important proof techniques such as memory injections, which enable us to port the whole proof of CompCert to our new memory model, therefore providing formal guarantees for more programs
APA, Harvard, Vancouver, ISO, and other styles
13

Boubekeur, Ahmed Saucier Gabrièle. "Conception d'architectures integrees de traitement d'image de bas niveau." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00341394.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Hadachy, Mohamed El. "Diagnostic du vieillessement de la connectique encartable dorée bas-niveau." Montpellier 2, 2008. http://www.theses.fr/2008MON20240.

Full text
Abstract:
Cette étude a pour objectif de déterminer le type d'endommagement principal qui affecte la fiabilité des connecteurs encartables utilisés durant plusieurs décennies sur site industriel, pour ensuite tenter de concevoir un outil de diagnostic. La première partie de ce manuscrit rappelle les modèles liés à la théorie du contact électrique et dresse la liste des mécanismes de dégradation classiquement rencontrés dans les connecteurs à lames flexibles utilisés pour connecter les circuits imprimés. Les deuxième et troisième parties concernent l'expertise de l'état d'endommagement de lots de connecteurs rebutés après 10 à 30ans de service, par Microscopie à force atomique, MEB EDX, FTIR et analyse optique mais aussi par des techniques plus originales telles que la sonde de Kelvin et la Microscopie acoustique. Finalement, l'état de surface d'appui de ces connecteurs semble être principalement affecté par de la pollution et non des traces d'érosion, d'oxydation ou un décollement du revêtement doré. La quatrième partie présente un nouveau système de mesure de la résistance électrique de contact utilisant une lyre réelle appuyée de façon contrôlée sur la piste dorée à tester. Cette mesure en fonction de la force d'appui semble être assez reproductible pour fournir certains critères sensibles à la qualité d'un contact lyre/piste. De plus, nos observations et simulations par éléments finis montrent aussi le rôle capital de la lyre dans l'établissement du contact mécanique réel au sein d'un connecteur. Enfin, cette technique a été appliquée sur des surfaces conductrices étalons polluées par des dépôts de différentes épaisseurs réalisés à l'aide d'une tournette pour simuler la pollution précédemment identifiée
The first part of this manuscript defines the models governing the theory of the electric contacts and also presents a list of known degradation mechanisms for spring contacts used for printed circuit boards. The second and third parts are dedicated to the surface state expertise of these male and female industrial connectors after long exploitation times (between 30 and 10 years) using on one hand, AFM, EDX BEM, IRTF and UV light analysis to identify the main degradation effects and on the other hand, Kelvin Probe and Acoustic Microscopy in an attempt to test new investigation tools. Pollution appears to be the most relevant default compared to erosion, oxidation or coating delaminations. The fourth part is dedicated to the conception and to the implementation of a measurement system of the electric contact resistance in a configuration similar to the real connector one. For that purpose, a HE9 pin is used to be pressed to the male contact part under test. The measure of the corresponding electric resistance is made according to the contact strength level which is adjustable and controlled. Lastly we reproduce pollutions mechanisms (by spin coating) since it has been highlighted previously as the main ageing process, in order to measure its impact on the contact resistance and also on the reliability of electrical contact. This study shows the interest of this kind of measurement to detect the ageing effects for spring contacts on printed circuit boards
APA, Harvard, Vancouver, ISO, and other styles
15

ALVES, DE BARROS MARCELO. "Traitement bas niveau d'images en temps reel et circuits reconfigurables." Paris 11, 1994. http://www.theses.fr/1994PA112307.

Full text
Abstract:
Ce travail decrit une approche de haut niveau pour la conception et l'implantation materielle d'operateurs dedies au traitement bas niveau d'images (tbni) en temps reel. Nous exploitons les caracteristiques de flexibilite des circuits reconfigurables du type fpga sram, pour creer des systemes dedies materiels ainsi que des systemes mixtes, logiciels et materiels, dotes d'un degre d'ergonomie qui permet a un utilisateur de tbni de manipuler aisement des variables architecturales et technologiques. L'approche est fondee sur la definition d'un systeme materiel de tbni multiforme, capable de s'adapter a une architecture potentielle deduite de la description, par l'utilisateur de tbni, du parallelisme potentiel de son algorithme. Nous developpons un formalisme de description, base sur une modelisation de l'application aux niveaux algorithmique, architectural et technologique. Cette modelisation est associee a un graphe etiquete dont les nuds sont des operateurs specifiques precaracterises aux trois niveaux. Un langage graphique associe est deduit, permettant la representation d'un systeme dedie de tbni a partir d'un ensemble reduit de primitives de base, tout en autorisant une explicitation du parallelisme spatial et temporel. L'implantation materielle est basee sur un modele de calcul a flots de donnees synchrone et un modele architectural pipeline. L'exploitation des avantages de la technologie et la compensation de ses limitations sont guidees par des adequations algorithme-architecture et par une personnalisation du processus de placement et routage des circuits. Une methode d'evaluation du cout en surface et de la performance temporelle est definie pour permettre une analyse de faisabilite et guider une implantation selon une approche multi-fpga. Une architecture d'environnement materiel de base, adaptee aux proprietes du tbni et aux caracteristiques des circuits fpga xilinx est proposee. Une plate-forme constituee d'un ensemble d'outils logiciels et bibliotheques, ainsi que des versions reduites de l'environnement materiel de base ont ete developpes. Atteignant deja une partie du degre d'ergonomie que permet l'approche d'implantation proposee, elle permet deja de tester de nombreuses applications. Elle a permis de valider notre approche et de tester les applications realisees, et constitue un outil d'aide a l'enseignement de tbni, d'architectures et d'implantation materielle sur des fpgas xilinx
APA, Harvard, Vancouver, ISO, and other styles
16

Amhaz, Hawraa. "Traitement d'images bas niveau intégré dans un capteur de vision CMOS." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00838399.

Full text
Abstract:
Le traitement d'images classique est basé sur l'évaluation des données délivrées par un système à basede capteur de vision sous forme d'images. L'information lumineuse captée est extraiteséquentiellement de chaque élément photosensible (pixel) de la matrice avec un certain cadencementet à fréquence fixe. Ces données, une fois mémorisées, forment une matrice de données qui estréactualisée de manière exhaustive à l'arrivée de chaque nouvelle image. De fait, Pour des capteurs àforte résolution, le volume de données à gérer est extrêmement important. De plus, le système neprend pas en compte le fait que l'information stockée ai changé ou non par rapport à l'imageprécédente. Cette probabilité est, en effet, assez importante. Ceci nous mène donc, selon " l'activité "de la scène filmée à un haut niveau de redondances temporelles. De même, la méthode de lectureusuelle ne prend pas en compte le fait que le pixel en phase de lecture a la même valeur ou non que lepixel voisin lu juste avant. Cela rajoute aux redondances temporelles un taux de redondances spatialesplus ou moins élevé selon le spectre de fréquences spatiales de la scène filmée. Dans cette thèse, nousavons développé plusieurs solutions qui visent contrôler le flot de données en sortie de l'imageur enessayant de réduire les redondances spatiales et temporelles des pixels. Les contraintes de simplicité etd'" intelligence " des techniques de lecture développées font la différence entre ce que nousprésentons et ce qui a été publié dans la littérature. En effet, les travaux présentés dans l'état de l'artproposent des solutions à cette problématique, qui en général, exigent de gros sacrifices en terme desurface du pixel, vu qu'elles implémentent des fonctions électroniques complexes in situ.Les principes de fonctionnement, les émulations sous MATLAB, la conception et les simulationsélectriques ainsi que les résultats expérimentaux des techniques proposées sont présentés en détailsdans ce manuscrit.
APA, Harvard, Vancouver, ISO, and other styles
17

PREMONT, GUY. "Photothyristors pnpn et recuit simule optoelectronique pour la vision bas-niveau." Paris 11, 1999. http://www.theses.fr/1999PA112287.

Full text
Abstract:
La regularisation bayesienne permet de poser les problemes de vision bas-niveau de maniere probabiliste pour ensuite obtenir une fonction d'energie qui caracterise le probleme. La solution se derive alors du minimum de la fonction d'energie. Les methodes stochastiques d'optimisation, comme le recuit simule, permettent de resoudre ces problemes sans conditions sur leur description mathematique. Le principal desavantage de ces methodes, la duree du calcul, pourrait etre elimine par l'utilisation du recuit simule parallele. L'utilisation de matrices de processeurs elementaires pixelises peut mener a des applications ayant une architecture massivement parallele en associant un processeur elementaire a chaque pixel d'une image. Des processeurs elementaires optoelectroniques combinent des entrees optiques, une operation non-lineaire et des sorties optiques. Afin de realiser un prototype de processeur elementaire, nous avons etudie le fonctionnement de paires differentielles de photothyristors. Nous determinons dans ce travail les fonctionnalites requises par un processeur elementaire dans un systeme optoelectronique d'optimisation stochastique. L'exemple academique de la restauration d'images binaires bruitees permet d'apprehender les problemes lies a la parallelisation. Le probleme de la binarisation est plus complexe mais il permet d'evaluer l'aptitude des fonctions d'energie a etre modifiees en fonction des resultats voulus. Pour utiliser ces elements dans un recuit simule optoelectronique, nous utilisons un champ de speckle comme generateur de nombres aleatoires. Nous demontrons dans ce travail qu'une detection differentielle de speckle permet de generer des fonctions de probabilite sigmoides avec une erreur inferieure a 1%. Enfin, nous proposons differentes architectures paralleles optoelectroniques et nous comparons les caracteristiques d'une matrice de processeurs elementaires a base de photothyristors a d'autres technologies.
APA, Harvard, Vancouver, ISO, and other styles
18

Soëte, Thomas. "Couche logicielle bas niveau efficace pour interface radio à faisceaux agiles." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10179/document.

Full text
Abstract:
Les travaux présentés dans ce mémoire se placent dans le contexte des réseaux sans fil sans infrastructure (Ad Hoc) impliquant l’utilisation d’antennes sectorielles simples dans le canal radio à 60 GHz. L’antenne est constituée de plusieurs antennes simples, chacune destinée à un secteur particulier et susceptible d’être commutée mécaniquement pour activer un seul secteur. Il est ainsi possible de choisir le secteur d’émission ou de réception des données. Ce type d’antenne souffre néanmoins d’un problème lié à cette commutation mécanique : elle ne peut pas se faire instantanément. À chaque changement de secteur, une petite quantité de temps est perdue, ce qui diminue l’efficacité de l’ensemble. Ce problème est d’autant plus important lorsque le temps de commutation avoisine le temps d’émission d’un paquet : plus de la moitié de la bande passante peut être gâchée. Les solutions de l’état de l’art permettant de supporter les antennes sectorielles ne prennent généralement pas en compte ce temps de commutation et ne sont donc pas adaptées au problème. La thèse défendue est qu’en prenant en compte ce temps de commutation, il est possible de produire une pile protocolaire performante et adaptée à ce type d’antennes. Nous proposons donc une nouvelle pile protocolaire optimisée comprenant les deux couches basses du modèle OSI. Elle reste donc interopérable avec les systèmes actuels
The work presented in this paper are placed in the context of wireless networks without infrastructure (Ad Hoc) involving the use of sector antennas in a 60 GHz radio channel. The antenna consists of several simple antennas; each intended for a particular sector and may be mechanically switched to activate a single sector. It is thus possible to choose the area of transmitting or receiving data. This type of antenna nevertheless suffers from a problem with this mechanical switching: it cannot be done instantly. At each change of sector, a small amount of time is lost, which reduces the efficiency. This problem is particularly important when the switching time is around the time needed to send a packet: more than half of the bandwidth can be wasted. The state of the art solutions for supporting sector antennas generally do not take into account this switching time and therefore are not adapted to this problem. The thesis is that by taking into account the switching time, it is possible to produce an efficient and adapted protocol stack to this type of antennas. We therefore propose a new optimized protocol stack including the two lower layers of the OSI model. It then remains interoperable with other systems
APA, Harvard, Vancouver, ISO, and other styles
19

Mokri, Hind. "Problématique de l’évaluation neuropsychologique du sujet âgé de bas niveau d’études." Thesis, Bordeaux 2, 2013. http://www.theses.fr/2013BOR22076/document.

Full text
Abstract:
L’impact du niveau d’études sur les performances cognitives est largement connu. Aussi, l’évaluation des sujets de bas ou très bas niveau d’études est un réel challenge pour les cliniciens. D’une part, les outils habituellement utilisés dans le bilan du sujet âgé ne sont pas adaptés aux individus analphabètes ou de bas niveau d’éducation, et, d’autre part, les normes nécessaires à l’interprétation des scores cognitifs ne prennent pas suffisamment en considération cette population de bas niveau scolaire. Ainsi, la question que pose ce travail de thèse est de savoir comment optimiser l’évaluation neuropsychologique de ces sujets de bas niveau scolaires. L’objectif poursuivi par la première étude de cette thèse est de déterminer s’il existe un effet propre du fait de savoir lire et écrire indépendamment de celui de la scolarisation. Pour répondre à cette question, nous avons pu accéder aux données recueillies dans la cohorte mexicaine de Coyoacán qui a la particularité d’avoir un échantillon important de sujets n’ayant jamais été scolarisés. Cette première étude a montré que des sujets n’ayant jamais accédé au système éducatif mais ayant des notions rudimentaires de lecture et d’écriture acquises de manière informelle, ont des performances plus élevées à tous les tests considérés, hormis pour le Set test d’Isaacs (IST), que des sujets ne sachant pas lire et écrire. Ainsi, ces résultats illustrent l’effet des capacités de lecture et d’écriture, un effet distinct de l’effet du niveau de scolarisation. Une seconde difficulté à laquelle doivent faire face les cliniciens est l’absence de normes adaptées aux sujets de bas niveau d’études. Ainsi, un travail autour de l’élaboration de normes adaptées aux sujets de bas niveau d’études a été réalisé dans la cohorte de Coyoacán et nous a permis d’élaborer des normes pour le Mini Mental State Examination (MMSE), le Rappel libre/Rappel indicé 16 items (RL/RI-16) et l’IST, jusque-là inexistantes pour la population âgée mexicaine et qui a la particularité de présenter une forte proportion de sujets de bas niveau d’études. Un second travail de normalisation a été réalisé dans la cohorte AMI, une cohorte menée en milieu rural dans le département de la Gironde dans laquelle la proportion de sujets de bas niveaux est plus élevée qu’en population générale, pour un nouveau test de mémoire visuo-spatiale, le test des gobelets pour lequel nous avons également étudié sa validité dans la détection de la démence. Ces normes classiques, corrigées pour des variables démographiques sont essentielles à l’interprétation des scores cognitifs. Dans le même temps, dans le cas de la démence où l’âge et le niveau d’études sont deux facteurs de risque majeurs, cette pratique habituelle de corriger pour ces variables afin d’établir ou de prédire un diagnostic de démence peut être remise en question. Si des travaux antérieurs ont montré que l’utilisation de scores corrigés diminue la qualité de détection de la démence, la dernière étude de cette thèse a montré qu’il en est de même lorsqu’il s’agit de prédire la démence : les sujets qui deviennent déments à court terme sont mieux classés lorsque les scores ne sont pas corrigés que lorsqu’ils sont corrigés pour l’âge et le niveau d’études. Ainsi, loin de régler le vaste problème de l’évaluation du sujet de bas niveau d’études, cette thèse tente d’apporter des éléments pragmatiques au clinicien sous la forme de tests ou de normes adaptées, mais aussi des éléments de réflexion sur l’utilisation de ces scores
The effect of education on cognitive performances and neuropsychological assessment outcomes has been well documented so far. Indeed, the assessment of cognitive performance of individuals with low and very low educational level remains a major clinical challenge for several reasons. Firstly, conventional cognitive assessment tools used with elderly patients are not suitable for illiterate or poorly instructed individuals. Secondly, traditional norms used to identify strengths and weaknesses of cognitive performance are not sensible enough to detect cognitive impairments among illiterate or scarcely instructed individuals. Therefore, how to improve the neuropsychological assessment of individuals with low formal educational level is the main research question of this doctoral thesis. To adequately answer to this prior question, four studies have been conducted. The aim of the first study presented in this thesis was to investigate the specific effect of literacy acquisition on cognitive performances independently of education. For this work, we used data collected from the Coyoacán study, a Mexican population-based cohort which presents an important sample of uneducated participants. The main finding of this study was that participants who never attended school but counting with informal literacy abilities, presented better performances for all cognitive tests, except for the Isaacs Set test (IST), compared to their uneducated illiterate counterparts. These findings illustrate the specific effect of literacy skills acquisition on cognitive performances independently of the influence of schooling. The lack of adapted comparative norms is the second major challenge of neuropsychological assessment of individuals with low-educational level. Consequently, our second study aimed at establishing comparative norms for the MMSE, the Free and Cued Selective Reminding Test and the IST, three tests widely used for cognitive evaluation in elderly people. Of note, these norms were specifically established for the Mexican elderly population, which presents a high rate of illiteracy and low-educational level. Finally, a third study aiming at establishing comparative norms for a new visuo-spatial memory-test: the goblets test. For this study, we used data collected from the AMI cohort study which is conducted in rural areas in the South-West of France. Within this third study we also studied the validity of this test in detecting dementia illness. These comparative norms are necessary to interpret cognitive scores. However, as age and education are major risk factors for dementia, correcting for these demographic variables to improve the accuracy of detection or prediction of dementia may be questionable. Consistently with other studies showing that dementia detection accuracy is compromised when corrected scores are used; findings of our last study showed that regarding dementia prediction accuracy, participants developing dementia, in the short term, are better classified when using uncorrected scores for age and education than the corrected ones. To conclude, cognitive assessment of elderly individuals with low-educational level remains still a major clinical barrier to correctly diagnose dementia. However, besides providing clinicians with several pragmatic inputs such as cognitive tests and appropriated comparative norms, we believe that our findings will encourage clinical reflection regarding the use of these scores
APA, Harvard, Vancouver, ISO, and other styles
20

Belakhdar, Rahma. "Etude des mécanismes de fretting dans les contacts électriques bas-niveau étamés." Paris 11, 2009. http://www.theses.fr/2009PA112305.

Full text
Abstract:
Les contacts électriques bas-niveau étamés sont très répandus dans la connectique des systèmes électroniques embarqués. Leur fiabilité est remise en cause par un phénomène d’usure appelé fretting correspondant à une sollicitation multiphysique et essentiellement vibratoire. Malgré un nombre important d’études menées à ce sujet, les mécanismes régissant ce mode de dégradation sont encore mal caractérisés parce qu’ils impliquent des paramètres de nature physique différentes donnant lieu à des interactions complexes. Le but de cette thèse est de contribuer à l’amélioration des connaissances portant sur la dégradation des propriétés électriques des contacts bas-niveaux soumis au fretting par une approche tribologique et électrique. Le travail proposé s’articule autour d’un dispositif expérimental permettant de recueillir des mesures pertinentes dans l’étude d’un cas de figure simplifié. Ainsi, l’analyse de la dégradation du contact est assurée par le suivi de la valeur de la résistance électrique et par la mesure des forces de frottement au cours d’un essai complet. Un dispositif spécial permet de détecter et compter les microcoupures électriques qui surviennent. Une analyse a posteriori de l’état de surface par profilomètrie vient compléter l’étude expérimentale. Dans ce travail, de nombreux essais ont été menés pour étudier l’influence sur la dégradation par fretting de paramètres comme la force de maintien du contact, l’amplitude ou la fréquence des vibrations. Les résultats ont été confrontés à différents modèles rencontrés dans la littérature. Les données recueillies ont permis de dégager des critères d’usure reposant sur des fondements énergétiques et tribologiques
Low-power tinned electrical contacts are widely used in the connections within embedded electronic systems. Their reliability is questioned by a wear phenomenon called fretting corresponding to a multiphysical and essentially vibratory solicitation. Despite a significant number of studies on this topic, the mechanisms governing this mode of degradation are still imperfectly characterized because they involve parameters of different physical nature giving rise to complex interactions. The purpose of this thesis is to contribute to the improvement of the knowledge concerning the deterioration of the electric properties of these low-power contacts subject to fretting following a tribologic and electric approach. The proposed work is based on an experimental device allowing the collecting of relevant measures in a simplified scenario-case study. Thus, the analysis of the contact degradation is insured by the tracking of the value of the electrical resistance and the forces of friction in a test full. A special device can detect and count the electrical micro shutdowns occurring. An analysis after the fact of the surface roughness by a form measuring instrument complements the experimental study. In this work, many trials were conducted to study the influence on the degradation by fretting parameters as the supporting force of contact, the amplitude or the frequency of vibration. The results have been faced with different models encountered in the literature. The data collected helped to identify wear criteria based on energy bases and tribological
APA, Harvard, Vancouver, ISO, and other styles
21

Li, François-Xavier. "Anticipation-coi͏̈ncidence à bas niveau de contrainte : sources d'information et couplage d'intensité." Aix-Marseille 2, 1995. http://www.theses.fr/1995AIX22062.

Full text
Abstract:
Deux caracteristiques principales permettent de decrire les travaux portant sur les habiletes visuo-motrices dans les situations d'anticipation-coincidence. Premierement, dans les taches utilisees, le contact avec un mobile est recherche (e. G. , capture de balle) ; deuxiemement, le niveau de contrainte est eleve. Le mode de controle du comportement adopte lors d'une tache d'evitement a bas niveau de contrainte reste donc a explorer. A partir d'une analyse des caracteristiques de l'evitement de collision, deux questions sont posees: quelles sont les sources d'information utilisees pour percevoir le temps restant avant le contact ? comment sont controles le declenchement et l'execution d'un mouvement d'evitement ? deux theories se proposent de repondre a la premiere question, i. E. , l'approche cognitive et l'approche ecologique. Les donnees obtenues dans une serie d'experiences montrent que la manipulation des sources d'information disponibles entraine systematiquement une modification du comportement. Ces resultats sont discutes dans le cadre du debat qui oppose les deux approches theoriques. Les resultats des experiences portant sur la seconde question montrent que le comportement depend de la vitesse du mobile. Un modele original de controle de l'action, le couplage d'intensite, est propose. Sa portee et ses limites sont discutees
APA, Harvard, Vancouver, ISO, and other styles
22

Ammenouche, Samir. "Etude de l'interaction bas niveau entre le parallélisme d'instructions et les caches." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0054.

Full text
Abstract:
Les problèmes d’ordonnancement (d’instructions ou de tâches) étudiées dans la littérature considèrent majoritairement une connaissance parfaite du temps d’exécution de chaque instruction. Or, la présence d’un cache ne permet pas la connaissance à priori des délais d’accès à la hiérarchie mémoire. L’incertitude de la localisation des données dans la hiérarchie mémoire conduit à l’incertitude des délais consommés par les instructions d’accès mémoire. Ainsi, les modèles théoriques d’ordonnancement étudiés sont bien simplifiés, ne considèrent que des latences fixes pour les différentes instructions. Or en réalité les effets de caches sur les ordonnancements d’instructions font varier les temps d’exécution des programmes induisant l’impossible de faire une analyse temporelle du code et une sous-utilisation des ressources. Nous proposons une optimisation qui prend en compte les effets de cache lors de la compilation et nous y associons les optimisations de pré-chargement de données de manière linéaire. De plus, nous constatons que l’ajout d’instruction de pré-chargement de données dans le code bas niveau permet de couvrir les latences d’accès à la mémoire. Cependant, la littérature ne décrit que les méthodes d’accès linéaire et ne propose que peu de solutions pour les accès non linéaires. Dans ce contexte, nous proposons une méthode d’analyse de flux d’adresses accédées durant l’exécution. Cette méthode est basée sur l’analyse spectrale. Celle-ci permet de détecter les patterns répétitifs et donc de prédire les prochaines adresses accédées. En dernier, la granularité d’accès aux données est un point souvent négligé lors de l’insertion d’instruction de pré-chargement dans le code bas niveau. Or, il nous semble nécessaire de prendre en compte ce paramètre afin de proposer des solutions plus appropriées. Pour cela nous nous somme basées sur une granularité gros grain pour prefetcher des bloques de données. Nous avons montré l’efficacité de la méthode sur la multiplication matricielle creuse. Plus de 1400 matrices furent utilisées et nous avons développé un test de régularité de données afin de classifier ces matrices
The scheduling problems (of instructions or tasks) that are studied in the litterature consider a well knowledge of execution time of each instruction. However, adding a cache to a processor does not permit in advance to know the access delay to the memory hierarchy. The uncertainty of the data localisation in memory hierarchy induces uncertainty of the memory instruction delays. Thus, the studied theorical scheduling models are simple, and they only consider fixed latency for memory instructions. In fact, the cache effects on instruction scheduling vary the program execution time inducing the impossibility to perform a temporal analysis of the generated code and then a resource under-utilisation. We propose an optimisation that takes into account the cache effects during the compilation time. Then, we combine the linear prefetch optimisation with it. Moreover, we note that the addition of the data prefetch instructions permits to overlap the memory access latency. However, litterature describes only linear access prefetch and does not offer alternative for the non-linear accesses. In this context, we propose an analysis method of the accessed address stream based on the spectral analysis. It permits to detect the repetitive patterns if they exist. Based on these repetitive patterns, data becomes prediction possible. This may leads to prefetch repetitive irregular patterns. Finally, the granularity of data accesses is often neglected when the prefetch optimisation is applied. However, this parameter can be used to propose an adapted optimisation. Indeed, in opposition to the classical fine level granularity of data prefetching, we propose to prefetch at large grain granularity. In other word, instead of prefetching cache-lines, we propose to prefetch a whole memory block. We perform experiments on the sparse matrix vector multiplication. In addition, we developed a test of data regularity to classify the matrices
APA, Harvard, Vancouver, ISO, and other styles
23

Da, Rugna Jérôme. "De l'usage des méthodes bas niveau pour la recherche d'image par le contenu." Phd thesis, Université Jean Monnet - Saint-Etienne, 2004. http://tel.archives-ouvertes.fr/tel-00070811.

Full text
Abstract:
La thématique de ces travaux de thèse est la recherche d'images par le contenu et plus précisément
l'apport des méthodes bas niveau.
Après avoir discuté des différentes approches existantes, nous rappelons le fossé sémantique
entre les attentes de l'utilisateur et ce que proposent réellement les systèmes de recherche. La
plupart de ceux-ci reposent sur une étape préalable de segmentation dont la validité et la robustesse
se doivent d'être étudiées. Nous proposons alors un protocole d'évaluation objective et un
exemple concret de mise en oeuvre. L'originalité consiste à ne pas comparer une segmentation à
une référence théorique mais à juger objectivement sa stabilité.
La troisième partie de ce document introduit trois contributions ponctuelles susceptibles
d'améliorer la chaîne de recherche. Dans un premier temps, un détecteur de flou permet d'extraire
une méta-information portée par l'image, les zones nettes a priori de focalisation. Ensuite
nous exposons un descripteur basé sur l'extraction de régions émergentes sur le seul critère couleur.
Cette extraction, conjuguée avec des distances adaptées, peut permettre par exemple un
pré-filtrage couleur en amont de la phase de recherche de similarité proprement dite. Finalement,
nous introduisons brièvement une algèbre d'histogrammes pour exploiter au mieux l'information
contenue dans ce type de descripteurs, via un langage de requêtes spécifique.
APA, Harvard, Vancouver, ISO, and other styles
24

COLDEFY, FRANCOIS. "Champs markoviens et méthodes variationnelles appliqués à des tâches de vision bas niveau." Paris 11, 1993. http://www.theses.fr/1993PA112145.

Full text
Abstract:
Dans bien des situations, le traitement d'images se ramene a la traduction d'un probleme donne sous la forme d'une minimisation d'energie. La principale difficulte repose alors sur la qualite de cette traduction, c'est-a-dire sur la construction d'une energie dont le minimum represente l'information qu'on souhaite extraire ou reconstruire. Cette these presente deux approches differentes de ce probleme suivant qu'on se place dans le cadre probabiliste des champs markoviens ou celui deterministe du calcul variationnel. La premiere partie a pour trait la detection de lignes de fond de vallees sur un couple d'images bruitees et degradees par un fort gradient de luminosite. Les lignes de fond de vallees sont representees par leur version discrete et modelisees par un champ markovien. L'approche de bayes-markov conduit a minimiser une energie composee de deux termes. Le premier represente le modele a priori sur les courbes discretes et integre les contraintes de regularite (faible courbure) et de longueur. Le second se deduit du modele de bruit et est controle par un parametre definissant le rapport signal a bruit minimal a partir duquel une detection est effectuee sur le couple d'images recalees. Cette energie est minimisee par un algorithme stochastique de type mpm. La seconde partie concerne la reconstruction automatique de la silhouette d'un objet place sur un fond homogene bruite. Le cadre retenu est celui des snakes, methode issue du calcul variationnel. Le contour est obtenu par minimisation d'une energie au moyen d'un algorithme deterministe du gradient utilisant plusieurs niveaux de resolution. Enfin, ce travail presente egalement une etude sur le modele d'eclairement lambertien. On propose une approche semi-locale d'estimation de la reflectance et de l'orientation locale des objets lorsque la direction de la lumiere incidente est inconnue
APA, Harvard, Vancouver, ISO, and other styles
25

Da, Rugna Jérôme. "De l'usage des méthodes bas niveau pour la recherche d'images par le contenu." Saint-Etienne, 2004. http://www.theses.fr/2004STET4015.

Full text
Abstract:
La thématique de ces travaux de thèse est la recherche d'images par le contenu et plus précisément l'apport des méthodes bas niveau. Après avoir discuté des différentes approches existantes, nous rappelons le fossé sémantique entre les attentes de l'utilisateur et ce que proposent réellement les systèmes de recherche. La plupart de ceux-ci reposent sur une étape préalable de segmentation dont la validité et la robustesse se doivent d'être étudiées. Nous proposons alors un protocole d'évaluation objective et un exemple concret de mise en oeuvre. L'originalité consiste à ne pas comparer une segmentation à une référence théorique mais à juger objectivement sa stabilité. La troisième partie de ce document introduit trois contributions ponctuelles susceptibles d'améliorer la chaîne de recherche. Dans un premier temps, un détecteur de flou permet d'extraire une méta-information portée par l'image, les zones nettes a priori de focalisation. Ensuite nous exposons un descripteur basé sur l'extraction de régions émergentes sur le seul critère couleur. Cette extraction, conjuguée avec des distances adaptées, peut permettre par exemple un pré-filtrage couleur en amont de la phase de recherche de similarité proprement dite. Finalement, nous introduisons brièvement une algèbre d'histogrammes pour exploiter au mieux l'information contenue dans ce type de descripteurs, via un langage de requêtes spécifique
The matter of this work is content based image retrievaland more precisely the contribution of the low level methods. After having discussed the various existing approaches, we recall the semantic gap between the user expectations and what really the systems of research propose. Most of these approaches rely on a preliminary step of segmentation whose validity and robustness must be studied. Then we propose a protocol of evaluation and a practical example of benchmarks. The originality consists in not comparing a segmentation with a theoretical reference but judging its stability objectively. The third part of this document introduces three specific contributions likely to improve the chain of research. Initially, a detector of blur allows to extract a meta-data carried by the image: the unblur regions, a priori of focusing. Secondly, we expose a descriptor based on the extraction of emergent areas using only the color criteria. This process, combined with adapted distances, may allow for example a color pre-filtering before the step of similarity research. Finally, we briefly introduce an algebra of histograms able as well as possible to exploit the information contained in this type of descriptors, via a specific query language
APA, Harvard, Vancouver, ISO, and other styles
26

Alamarguy, David. "Etude de couches moléculaires organiques pour la protection des contacts électriques bas niveau." Paris 11, 2004. http://www.theses.fr/2004PA112046.

Full text
Abstract:
Mon travail de these a consiste a etudier un revetement permanent pour la protection des contacts electriques bas niveau dores, permettant une bonne protection contre la corrosion sans degrader les proprietes electriques et mecaniques. Il a ete effectue en collaboration avec des chimistes (universite de namur belgique, universite de nice et solvay) dans le cadre d'un projet europeen du 5eme pcrd. Il s'agissait d'elaborer un nouveau type de revetement impliquant une couche greffee au substra-metallique et une couche libre on a etudie l'interaction des molecules avec le substrat metallique avec differentes techniques: xps, mesure d'angle de contact, afm (mode conducteur). Des coupons proteges par des couches realisees a partir de differents types de thiols fluores ont etes soumis a des tests 4 gaz. On a etudie en parallele les proprietes electriques et mecaniques de contacts pion/plan. Des tests de frottement de grande et petite (fretting) amplitude ont ete realises. On montre qu'une bonne protection vis a vis de la corrosion n'est obtenue qu'avec des couches mixtes impliquant le codepot de plusieurs types de molecules thiol greffees. Ces couches ont ensuite ete mises en oeuvre sur des contacts de connecteurs et soumises au test de corrosion 4 gaz. On a alors trouve une formulation offrant une protection tres efficace sans modifier les proprietes electriques ou mecaniques. En parallele nous avons mis en evidence que les couches ainsi formees avaient des proprietes electriques et mecaniques tout a fait particulieres que nous avons etudiees a l'echelle microscopique et macroscopique. Un breveta ete depose sur le procede mis au point
This work concerns the study of a permanent organic coating for gold low level electrical contacts improvement. The aim of the coating is to ensure low friction and high corrosion protection while maintaining good electrical properties of the protected contact. It was performed in collaboration with chemists (university of namur, belgium, university of nice, and solvay, italy) in the framework of a european contract of the 5th framework programme. The main idea was to elaborate a novel type of coating involving a grafted layer and a free layer. The interactions of the molecules with the metallic substrate were studied. Various characterisation tools were used : xps, contact angles, afm and afm in conductive mode. The effect of various fluorinated thiol molecules was studied. The corrosion protection of the various layers was evaluated by exposing the protected coupons to a 4-gas test. At the same time mechanical and electrical properties were investigated. Large amplitude friction tests and low amplitude ones (fretting) were performed. It was shown that efficient protection against corrosion was obtained only when a mixed layer of codeposited thiol molecules was grafted on the surface. The process of coating deposition was transposed to connector terminals which were then submitted to the standardised industrial specifications. A formulation was found that gave outstanding results. It was shown in parallel that the layers displayed particular mechanical and electrical properties which were then studied both at the macroscopic and microscopic scale. A patent on the process and its application was deposited
APA, Harvard, Vancouver, ISO, and other styles
27

Collet, Anne-Claire. "Implication relative des traits de haut niveau et de bas niveau des stimuli dans la catégorisation, chez l'homme et le singe." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30118/document.

Full text
Abstract:
Dans cette thèse, nous nous sommes proposé d'explorer les contributions relatives des caractéristiques de haut et de bas niveau des stimuli dans la catégorisation d'objet. Ce travail comporte trois études, chez l'homme et le singe. L'originalité de cette thèse réside donc dans la construction des stimuli. Notre première étude a visé à caractériser les corrélats neuraux de la reconnaissance d'images chez le singe en ECoG. Pour cela nous avons développé un protocole de catégorisation où les stimuli étaient des séquences visuelles dans lesquelles les contours des objets (information sémantique, caractéristique de haut niveau) étaient modulés cycliquement grâce à la technique SWIFT (créée par Roger Koenig et Rufin VanRullen) alors que la luminance, les contrastes et les fréquences spatiales (caractéristiques de bas niveau) étaient conservées. Grâce à une analyse en potentiels évoqués, nous avons pu mettre en évidence une activité électrophysiologique tardive en " tout ou rien " spécifique de la reconnaissance de la cible de la tâche par le singe. Mais parce que les objets sont rarement isolés en conditions réelles, nous nous sommes penchés dans une deuxième étude sur l'effet de congruence contextuelle lors de la catégorisation d'objets chez l'homme et le singe. Nous avons comparé la contribution du spectre d'amplitude d'une transformée de Fourier à cet effet de congruence chez ces deux espèces. Nous avons révélé une divergence de stratégie, le singe semblant davantage sensible à ces caractéristiques de bas niveau que l'homme. Enfin dans une dernière étude nous avons tenté de quantifier l'effet de congruence sémantique multisensorielle dans une tâche de catégorisation audiovisuelle chez l'homme. Dans cette étude nous avons égalisé un maximum de paramètres de bas niveau dans les deux modalités sensorielles, que nous avons toujours stimulées conjointement. Dans le domaine visuel, nous avons réutilisé la technique SWIFT, et dans le domaine auditif nous avons utilisé une technique de randomisation de snippets. Nous avons pu alors constater un gain multisensoriel important pour les essais congruents (l'image et le son désignant le même objet), s'expliquant spécifiquement par le contenu sémantique des stimuli. Cette thèse ouvre donc de nouvelles perspectives, tant sur la cognition comparée entre homme et primate non humain que sur la nécessité de contrôler les caractéristiques physiques de stimuli utilisés dans les tâches de reconnaissance d'objets
In this thesis, we explored the relative contributions of high level and low level features of stimuli used in object categorization tasks. This work consists of three studies in human and monkey. The originality of this thesis lies in stimuli construction. Our first study aimed to characterize neural correlates of image recognition in monkey, using ECoG recordings. For that purpose we developped a categorization task using SWIFT technique (technique created by Roger Koenig and Rufin VanRullen). Stimuli were visual sequences in which object contours (semantic content, high level feature) were cyclically modulated while luminance, contrasts and spatial frequencies (low level features) remained stable. By analyzing evoked potentials, we brought to light a late electrophysiological activity, in an " all or none " fashion, specifically related to the target recognition in monkey. But because in real condition objects are never isolated, we explored in a second study contextual congruency effect in visual categorization task in humans and monkeys. We compared the contribution of Fourier transform amplitude spectrum to this congruency effect in the both species. We found a strategy divergence showing that monkeys were more sensitive to the low level features of stimuli than humans. Finally, in the last study, we tried to quantify multisensory semantic congruency effect, during a audiovisual categorization task in humans. In that experiment, we equalized a maximum of low level features, in both sensory modalities which were always jointly stimulated. In the visual domain, we used again the SWIFT technique, whereas in auditory domain we used a snippets randomization technique. We highlighted a large multisensory gain in congruent trials (i.e. image and sound related to the same object), specifically linked to the semantic content of stimuli. This thesis offers new perspectives both for comparative cognition between human and non human primates and for the importance of controlling the physical features of stimuli used in object recognition tasks
APA, Harvard, Vancouver, ISO, and other styles
28

Wotawa, Nicolas. "Système visuel cortical de bas niveau et perception du mouvement: une caractérisation par IRM." Phd thesis, Université de Nice Sophia-Antipolis, 2006. http://tel.archives-ouvertes.fr/tel-00071516.

Full text
Abstract:
L´évolution des technologies d´imagerie cérébrale alliée aux développement d´algorithmes spécifiques de traitement d´images permettent d´améliorer nos connaissances sur le fonctionnement du cerveau, en particulier s´agissant de la perception visuelle. L´objectif de ce travail de thèse est de contribuer à la compréhension des aires corticales impliquées dans la perception visuelle du mouvement chez l´homme, en analysant l´information des signaux de différentes modalités complémentaires d´Imagerie par Resonance Magnétique (IRM).

Une première partie concerne l´identification individuelle des aires visuelles de bas niveau. Nous détaillons la méthode de cartographie rétinotopique par IRM fonctionnelle (IRMf) que nous avons developpée, depuis la conception des stimuli visuels à l´analyse anatomo-fonctionnelle finale. Par ailleurs, une localisation fonctionnelle du complexe hMT/V5+ est obtenue par un paradigme en bloc. Ces méthodes, optimisées suivant certains paramètres de la stimulation, permettent d´extraire pour tout individu des Régions d´Intérêt homogènes.

Dans un deuxième temps, nous proposons une caractérisation fonctionnelle des différentes aires visuelles primaires. En se fondant sur le paradigme récent d´IRM d´adaptation qui permet d´étudier la sensibilité d´une région cérébrale à des variations quantitatives d´un paramètre de la stimulation, nous démontrons une différenciation de la sensibilité à la direction du mouvement dans les aires etudiées.

Enfin, nous décrivons une expérience combinant les modalités d´IRMf et d´IRM de diffusion (IRMd) dans le but d´étudier la connectivité anatomique au sein du cortex visuel primaire. Cette caractérisation, établie en s´appuyant sur des algorithmes récents de cartographie des fibres de matière blanche, donne des indices sur le réseau d´aires notamment impliquées dans le traitement du mouvement visuel.
APA, Harvard, Vancouver, ISO, and other styles
29

Ballaz, Cécile. "Recherche visuelle : intégration des informations visuo-posturales et mnésiques en vision de bas niveau." Grenoble 2, 2001. http://www.theses.fr/2001GRE29023.

Full text
Abstract:
Ce travail porte sur la pénétrabilité de la vision de bas niveau opérationnalisée par la recherche visuelle. Sur la base des variations de l'anisotropie qui caractérise le codage des orientations en vision de bas niveau. La première série d'expériences montre que l'effet d'un cadre incliné sur l'anisotropie est préalable à l'activité de recherche et sensible aux indices de surface en favorisant les informations les plus éloignées. Confortant l'idée d'une interprétation visuo-posturale de l'effet cadre, la deuxième série d'expériences met en évidence des différences inter-individuelles reliées à la dépendance-indépendance à l'égard du champ visuel. La troisième série d'expériences montre l'intervention des représentations mnésiques, par le biais de l'orientation canonique, sur l'anisotropie. Cet ensemble de recherches, conforté par des données neuropsychologiques, met en évidence l'intégration précoce des informations visuo-posturales et mnésiques lors du traitement visuel.
APA, Harvard, Vancouver, ISO, and other styles
30

Martin-Herrero, Julio. "Techniques de bas niveau en traitement d'images pour la télédetection des milieux non homogènes." Bordeaux 1, 2006. http://www.theses.fr/2006BOR13166.

Full text
Abstract:
La télédétection vise à acquérier l'information sur des cibles en étudiant leur réponse aux ondes électromagnétiques. Et partout nous rencontrons des milieux non homogènes et des composites. Connaître comment ces milieux non homogènes répondent à la sonde de télédétection est de la plus grande importance pour la praticabilité même de la télédétection. Le comportement macroscopique d'un composite peut s'exprimer en fonction des caractéristiques macroscopiques de ses constituants, mais d'une manière complexe incluant la géométrie de leur arrangement. Si nous pouvons obtenir le tenseur diélectrique efficace d'un composé, nous pouvons modéliser sa réponse au champ électromagnétique, et donc sa réponse comme cible de télédétection. La nécessité pour inclure la géométrie détaillée du système d'une façon efficace dans des méthodes numérique, ainsi qu'une équivalence entre les images numériques et les modèles de treillis des composites, suggère le recours aux techiques de bas niveau de traitement d'images numériques. Le cadre de cette thèse est le traitement numérique d'un problème général de télédétection fondée sur le problème électromagnétique d'homogénéisation dans des microstructure. Dans ce contexte, deux techniques de traitement d'images de bas niveau sont présentées, à savoir, une nouvelle méthode pour l'étiquetage des composantes connexes, présentant des améliorations significatives par rapport aux méthodes existantes, et une méhode de codage des configurations locales avec plusieurs caractéristiques la rendant appropriée pour des applications variées. Leurs avantages sont discutés, et des exemples d'application sont fournis au-delà du domaine spécifique étant à leur origine, comme la vision artificielle, le codage d'image, ou encore la synthèse d'image
APA, Harvard, Vancouver, ISO, and other styles
31

Ahmim, Smail. "Conversion de la chaleur fatale de bas niveau en énergie électrique par effet magnétocalorique." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST015.

Full text
Abstract:
Mes travaux de thèse visent à récupérer, grapiller, la chaleur fatale de bas à très bas niveau pour produire de l'énergie électrique et ainsi alimenter des petits systèmes autonomes (µW à mW). Le générateur développé convertit l'énergie en trois étapes. Tout d'abord l'énergie thermique est convertie en énergie magnétique au travers d'un cycle thermodynamique opéré à l'aide d'un matériau magnétocalorique. Cette première conversion est intimement liée à la seconde, conversion de l'énergie magnétique en énergie mécanique, car le déplacement du matériau magnétocalorique contrôle aussi le champ appliqué et les échanges thermiques avec les réservoirs. C'est l'imbrication de ces deux cycles, thermodynamique et dynamique, qui permet au système d'auto-osciller. L'énergie mécanique du système pseudo-oscillant est finalement convertie en énergie électrique via des éléments piézoélectriques. Mes travaux expérimentaux, théoriques et numériques ont cherché à maximiser l'énergie électrique récupérée tout en assurant l'auto-oscillation de la structure. Les dispositifs développés sont en mesure d'auto-osciller pour des écarts de température de 35 °C tout en produisant de l'énergie électrique. Notre prototype le plus performant présente une énergie de 10,6 μJ par cycle pour une fréquence de 0,41 Hz, soit une puissance de 4,2 μW (240 μW/cm3). Ces travaux mettent l'accent sur les cycles associés à la conversion d'énergie
The main objective of my thesis is the design and development of a device suitable to recover, and scavenge, low grade heat to produce electrical energy and thus supply small autonomous systems (μW to mW). The developed generator converts energy in three steps. First of all, thermal energy is converted into magnetic energy through a thermodynamic cycle operated by a magnetocaloric material. This first conversion is closely linked to the second, conversion of magnetic energy into mechanical energy, because the displacement of the magnetocaloric material also controls the applied field and the heat exchanges with the reservoirs. It is the interweaving of these two cycles, thermodynamic and dynamic, which allows the system to self-oscillate. The mechanical energy of the pseudo-oscillating system is converted into electrical energy via piezoelectric elements. My experimental, theoretical and numerical works aimed to maximize the electrical energy recovered while ensuring the self-oscillation of the structure. All devices developed are able to self-oscillate for temperature difference of 35 °C while producing electrical energy. Our most efficient prototype has an energy of 10.6 μJ per cycle for a frequency of 0.41 Hz, i.e. a power of 4.2 μW (240 μW/cm3). This work, especially, focuses on the cycles associated with energy conversion
APA, Harvard, Vancouver, ISO, and other styles
32

Sutour, Camille. "Vision nocturne numérique : restauration automatique et recalage multimodal des images à bas niveau de lumière." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0099/document.

Full text
Abstract:
La vision de nuit des pilotes d’hélicoptère est artificiellement assistée par un dispositif de vision bas niveau de lumière constitué d’un intensificateur de lumière (IL) couplé à une caméra numérique d’une part, et d’une caméra infrarouge (IR) d’autre part. L’objectif de cette thèse est d’améliorer ce dispositif en ciblant les défauts afin de les corriger.Une première partie consiste à réduire le bruit dont souffrent les images IL. Cela nécessite d’évaluer la nature du bruit qui corrompt ces images. Pour cela, une méthode d’estimation automatique du bruit est mise en place. L’estimation repose sur la détection non paramétrique de zones homogènes de l’image. Les statistiques du bruit peuvent être alors être estimées à partir de ces régions homogènes à l’aide d’une méthode d’estimation robuste de la fonction de niveau de bruit par minimisation l1.Grâce à l’estimation du bruit, les images IL peuvent alors débruitées. Nous avons pour cela développé dans la seconde partie un algorithme de débruitage d’images qui associe les moyennes non locales aux méthodes variationnelles en effectuant une régularisation adaptative pondérée parune attache aux données non locale. Une adaptation au débruitage de séquences d’images permet ensuite de tenir compte de la redondance d’information apportée par le flux vidéo, en garantissant stabilité temporelle et préservation des structures fines.Enfin, dans la troisième partie les informations issues des capteurs optique et infrarouge sont recalées dans un même référentiel. Nous proposons pour cela un critère de recalage multimodal basé sur l’alignement des contours des images. Combiné à une résolution par montée de gradient et à un schéma temporel, l’approche proposée permet de recaler de façon robuste les deuxmodalités, en vue d’une ultérieure fusion
Night vision for helicopter pilots is artificially enhanced by a night vision system. It consists in a light intensifier (LI) coupled with a numerical camera, and an infrared camera. The goal of this thesis is to improve this device by analyzing the defaults in order to correct them.The first part consists in reducing the noise level on the LI images. This requires to evaluate the nature of the noise corrupting these images, so an automatic noise estimation method has been developed. The estimation is based on a non parametric detection of homogeneous areas.Then the noise statistics are estimated using these homogeneous regions by performing a robust l`1 estimation of the noise level function.The LI images can then be denoised using the noise estimation. We have developed in the second part a denoising algorithm that combines the non local means with variational methods by applying an adaptive regularization weighted by a non local data fidelity term. Then this algorithm is adapted to video denoising using the redundancy provided by the sequences, hence guaranteeing temporel stability and preservation of the fine structures.Finally, in the third part data from the optical and infrared sensors are registered. We propose an edge based multimodal registration metric. Combined with a gradient ascent resolution and a temporel scheme, the proposed method allows robust registration of the two modalities for later fusion
APA, Harvard, Vancouver, ISO, and other styles
33

Torres, Rémi. "Développements et performances d'un spectromètre Ge bas bruit de fond au niveau de la mer." Bordeaux 1, 1998. http://www.theses.fr/1998BOR10579.

Full text
Abstract:
Ce travail entre dans le cadre de l'experience nemo (mise en evidence de la double desintegration sans emission de neutrinos du #1#0#0mo) et plus particulierement dans la selection par spectrometrie des materiaux necessaires a la construction du detecteur nemo3. Afin d'eviter d'une part une surcharge des spectrometres ultra bas bruit de fond installes au laboratoire souterrain de modane et d'autre part leur possible pollution par un echantillon trop actif, nous avons developpe au niveau de la mer un spectrometre germanium bas bruit de fond dont les performances permettent de mesurer des activites tres faibles (de l'ordre de 10 a 20 mbq/kg en #2#0#8tl et #2#2#6ra). Les sensibilites de mesure permettent de selectionner et de controler la totalite des materiaux de nemo3 avant un eventuel envoi a modane pour des mesures supplementaires. Pour atteindre de tels taux, une etude complete des differentes composantes du bruit de fond (rayonnement cosmique, rayonnement gamma et neutrons) pouvant perturber les mesures ainsi que l'optimisation des differents blindages ont ete realisees. Grace a ses tres bonnes sensibilites de mesures, le spectrometre ge peut egalement etre utilise dans d'autres domaines d'applications tels que l'environnement, la radioprotection, etc. . Afin d'ameliorer encore ses performances, un systeme d'anticompton avec scintillateurs plastiques a ete etudie, puis propose a la realisation.
APA, Harvard, Vancouver, ISO, and other styles
34

Poulain, Christophe. "Etude et modelisation des contacts electriques bas niveau des contacteurs electromagnetiques en regime statique et dynamique." Paris 6, 1996. http://www.theses.fr/1996PA066751.

Full text
Abstract:
Les principaux criteres de fiabilite des contacts electriques bas niveau de contacteurs electromagnetiques sont une resistance de contact faible et constante ainsi qu'une tendance reduite au rebondissement. Dans la premiere partie nous developpons des modeles capables de predire leur resistance de contact en regime statique. Nous presentons une synthese des principaux resultats experimentaux obtenus avec des contacts industriels. Nous abordons alors la modelisation mecanique du contact avec couplage electrique, en supposant successivement un comportement du materiau de contact elastique, elastique parfaitement plastique et viscoplastique (fluage). Dans la seconde partie, nous etudions, lors de la fermeture d'un contacteur industriel, l'incidence des chocs survenant lors de la fermeture du contact a double coupure sur le phenomene d'etablissement du contact. Le but est de determiner les forces d'impact sur chaque contact et d'etre predictif par rapport au phenomene de rebond.
APA, Harvard, Vancouver, ISO, and other styles
35

LE, GALL CLAIRE. "Etude des phenomenes de degradation dans les contacts electriques bas niveau soumis a des micro-vibrations." Paris 11, 1995. http://www.theses.fr/1995PA112533.

Full text
Abstract:
L'objectif de ces travaux est l'etude des phenomenes de degradation de contacts electriques utilises dans les automobiles. Lorsque l'on considere un raccordement electrique entre deux cables, on traverse en fait deux types de contacts: element de contact/element de contact (clip/languette) et cable/element de contact (sertissage ou systeme auto - denudant). Dans les deux cas, des defauts electriques peuvent apparaitre lors de vibrations excessives. Nous avons mis au point differents dispositifs experimentaux permettant d'etudier d'un point de vue mecanique et d'un point de vue electrique les consequences des vibrations sur ces differentes connexions. Nous avons etudie en fretting, l'influence de l'amplitude de vibration, de la frequence de vibration, de la force normale, de la nature et de l'epaisseur du revetement, de la lubrification et de la forme du clip. Le parametre de comparaison est la distance de vibration d, pour l'apparition des premiers defauts electriques. Leur apparition est liee aux particules d'usure. L'optimisation des parametres ci-dessus permet d'augmenter la duree de vie des contacts en retardant l'apparition des particules, en ameliorant leur ejection, ou en diminuant leur oxydation. Couplees aux investigations tribologiques, des caracterisations physico-chimiques (meb, xps, aes, afm) permettent de bien expliquer les phenomenes electriques observes. Le deplacement d'isolant est une technique de raccordement de cable aux elements de contact ne necessitant pas de denudage prealable du cable. Nous avons montre que, lors d'essais en vibration, plus le pas de torsade des brins constituant le cable est faible, meilleur est le contact electrique. Un modele mecanique que nous avons developpe, montre le lien entre la force de maintien du cable dans les lames d'un deplacement d'isolant et le pas de torsade
APA, Harvard, Vancouver, ISO, and other styles
36

QUEGUINER, CHARLES. "Influence des traitements de bas niveau sur les performances d'un systeme de reconnaissance de l'ecriture manuscrite." Rennes 1, 1990. http://www.theses.fr/1990REN10130.

Full text
Abstract:
Ce travail etudie l'influence des traitements de bas niveau sur les performances d'un systeme de reconnaissance de l'ecriture manuscrite. Apres une presentation et une evaluation des traitements de bas niveau classiques (binarisation, adoucissement, squelettisation), une methode generale qui permet d'extraire directement le trace a partir d'une image en niveaux de gris est proposee. Autour de cette idee generale, differentes variantes de realisation sont etudiees, ainsi que leurs consequences sur les performances du systeme de reconnaissance. Dans cette etude, on trouve egalement une proposition de primitives adaptees a la reconnaissance du trace, qui sont a la base d'une representation intermediaire commune a cette famille de traitements de bas niveau. Le trace est represente par un graphe dont les primitives constituent les nuds. Sur ce graphe agissent des regles de recritures afin de le simplifier. Le systeme de reconnaissance, proprement dit, compare le graphe simplifie associe a chaque mot isole dans l'image, avec les mots d'un dictionnaire et propose une liste classee de reponses
APA, Harvard, Vancouver, ISO, and other styles
37

Bruni, Camillo. "Towards self-aware virtual machines." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10021/document.

Full text
Abstract:
Les langages de haut-niveau supportent des opérations réflectives qui permettent à l’environnement d’exécution d’un langage d’inspecter et de changer son propre état et sa propre exécution. Ces langages de haut-niveau s’exécutent normalement sur une machine virtuelle (VM) qui ajoute une couche d’abstraction au-dessus du matériel. À cause de cette séparation, peu d’opérations réflectives sont disponibles pour inspecter et modifier la VM. Plusieurs VMs expérimentales offrent de telles opérations réflectives en proposant un modèle unifié qui ne distingue pas la couche VM de la couche langage. Dans cette thèse, nous suivons une approche similaire qui propose un environnement d’exécution unifié et auto-décrit. Nous nous intéressons à une solution minimale. Au lieu de dépendre de modifications d’une VM, nous générons dynamiquement du code natif depuis la couche langage. Nous présentons Benzo, un framework pour la génération dynamique de code natif. Benzo fournit une interface générique et de bas-niveau pour accéder aux fonctionnalités fondamentales de la VM. Grâce à Benzo, nous analysons plusieurs applications qui nécessitent un accès direct à la VMM. Nous montrons comment Benzo peut être utilisé pour implémenter une librairie de Foreign Function Interfaces, permettant de faciliter l’accès aux fonctionnalités bas-niveau de la VM. Pour évaluer les limitations de Benzo, nous visons deux autres applications: la génération dynamique de primitive et un compilateur JIT (Just-In-Time). Ces deux applications doivent changer le comportement de la VM. Pour cela, elles ont besoin d’une interaction poussée avec la VM
High-level languages implement reflection which allows a language runtime to inspect and alter its own execution and state. These high-level languages typically run on top of virtual machines (VMs) which have been built to create an abstraction layer over hardware. Due to the isolating nature of the VM, reflection is generally limited to the language-side. Several research VMs overcome this limitation and provide a unified model where there is no more a clear distinction between language-side and VM-side. In such a language runtime it is possible to reflectively modify VM components from language-side as they reside on the same abstraction layer. In this dissertation we follow the same global direction towards a unified language-runtime and self-aware VM. However, instead of looking for a holistic solution we focus on a minimal approach. Instead of using a custom tailored language runtime we use dynamic native code activation from language-side on top of an existing VM. We first present Benzo our framework for dynamic native code activation. Benzo provides a generic but low-level interface to the VM internals. Based on this framework we then evaluate several applications that typically require direct VM support. We show first how Benzo is used to build an efficient Foreign Function Interface, allowing for a more structured access to VM internal functions. To evaluate the limitations of Benzo we target two more applications: dynamic primitives and a language-side JIT compiler. Both of them require a tight interaction with the underlying VM
APA, Harvard, Vancouver, ISO, and other styles
38

Pot, Gerardus Petrus Maria. "Arm Leiden : levensstandaard, bedeling en bedeelden, 1750-1854 /." Hilversum : Verloren, 1994. http://catalogue.bnf.fr/ark:/12148/cb37096751g.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Tzvetanov, Tzvetomir. "Etude psychophysique et modélisation des traitements de bas niveau sous-tendant la vision des contours des objets." Phd thesis, Université Louis Pasteur - Strasbourg I, 2003. http://tel.archives-ouvertes.fr/tel-00004179.

Full text
Abstract:
Les mécanismes de formation des contours sont connus pour avoir des propriétés fonctionnelles différentes. Une étude de l'intégration de l'information spatiale entre éléments de lignes coaxiaux a été effectuée. Deux régimes sont présents, différenciés à partir d'une séparation spatiale d'environ un quart de degré d'angle visuel : les régimes courte et longue distance. Le premier a été intensivement étudié, contrairement au deuxième. En utilisant une approche expérimentale et par modélisation, les caractéristiques fonctionnelles du régime longue distance ont été mesurées et attribuées en partie à l'aire visuelle primaire de l'Homme. Les expériences ont permis d'obtenir les différentes caractéristiques psychophysiques. Avec des stimuli de polarités positives, le régime courte distance a pour limites spatiales 0 et un tiers de degré, et est sensible à l'intensité de l'inducteur (Expérience 1). Le régime longue distance a pour limites spatiales un tiers de degré et 2,5 degrés, et n'est pas sensible à l'intensité de l'inducteur (Expérience 1). Le régime longue distance semble être de manière générale facilitateur pour la détection de la cible (Expérience 2 et 5), quelles que soient la polarité et l'intensité de l'inducteur. Par contre, des différences entre polarités opposées et identiques des stimuli sont présentes pour ce régime. Les interactions OFF-vers-ON sont de manière générale beaucoup moins facilitatrices que les autres interactions dans le régime longue distance (Expérience 2 et 5). La luminance du fond sur lequel sont présentés les stimuli semblait intervenir dans les interactions (Expérience 2), mais l'étude contrôle sur des sujets naïfs n'a pas montré d'effet du fond (Expérience 5). En fonction de la séparation spatiale entre les deux stimuli, il est possible d'obtenir une interaction entre les deux régimes si le stimulus inducteur est placé de manière à ce que les deux régimes soient en compétition pour la détection de la cible (Expérience 3). Pour des polarités positives des stimuli, le régime longue distance s'est avéré posséder une plasticité visuelle spécifique à la direction d'alignement des stimuli (Expérience 4) : la direction verticale a montré une augmentation des seuils de détection des sujets au début des expériences, et la direction horizontale une diminution des seuils de détection des sujets au début des expériences. Par la suite, nous avons tenté de modéliser ces résultats expérimentaux au moyen du modèle LAMINART. Ce modèle simule certaines propriétés fonctionnelles des neurones du cortex visuel primaire (V1). Celui-ci permet de reproduire de manière globale les effets dus aux polarités, mais ne semble pas être sensible au facteur "séparation spatiale". Les résultats de cette thèse soutiennent l'idée que les deux régimes d'intégration de l'information spatiale d'iso-orientation sont principalement présents dans le cortex visuel primaire de l'Homme.
APA, Harvard, Vancouver, ISO, and other styles
40

Karypidis, Charalampos. "Asymétries en perception et traitement de bas niveau : traces auditives, mémoire a court terme et représentations mentales." Phd thesis, Université de la Sorbonne nouvelle - Paris III, 2010. http://tel.archives-ouvertes.fr/tel-00487590.

Full text
Abstract:
L'effet d'ordre de la présentation des stimuli a un impact sur leur discriminabilité. Dans cette thèse, nous étudions le phénomène d'asymétrie et comment celui-ci réagit avec divers facteurs cognitifs localisés dans différentes étapes du traitement. Nous nous focalisons sur le rôle de la périphéricité acoustique, de la dégradation auditive et des représentations mentales permanentes. Des données sur la perception visuelle complètent la partie principale de notre travail. Nous envisageons aussi la variabilité inter- et intra-sujet dans la perception et et dans la production des voyelles. Nos données révèlent que les effets d'ordre sont un mécanisme complexe qui ne peut pas être réduit à un seul facteur déclencheur.
APA, Harvard, Vancouver, ISO, and other styles
41

Martel-Brisson, Nicolas. "Approche non supervisée de segmentation de bas niveau dans un cadre de surveillance vidéo d'environnements non contrôlés." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29093/29093.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Zahirazami, Shahram. "Architecture reconfigurable : conception et evaluation d'un systeme reconfigurable pour le traitement bas niveau d'images en temps reel." Paris 11, 1999. http://www.theses.fr/1999PA112213.

Full text
Abstract:
Le traitement bas niveau d'images (tbni), est tres exigeant en puissance de calcul, mais en meme temps la plupart des algorithmes de tbni possedent differents parallelisme, et plus essentiellement un parallelisme de donnees. Une machine de type von neumann n'est pas tres adaptee pour exploiter tous ces parallelismes. La solution multi processeurs presente un cout et un developpement important, quant a la solution circuits specifiques, elle n'apporte pas la souplesse d'adaptation requise par ces algorithmes. Dans ce travail nous proposons une architecture reconfigurable a base de composants fpgas, solution qui apporte la flexibilite et la puissance de calcul necessaire a l'implantation des algorithmes de tbni, tout en garantissant un cout et un encombrement raisonnable. A travers plusieurs exemples, nous avons demontre la faisabilite de notre architecture et sa capacite a s'adapter a une panoplie d'algorithmes de tbni. Nous avons implante des algorithmes de filtrage : sobel, kirsch, nagao, les filtres de deriche recursif et sa version non recursive, ainsi qu'un ensemble de methodes de segmentation : approche frontiere, la ligne de partage des eaux et des operateurs topologiques. La topologie de l'architecture est reconfigurable, afin d'obtenir la meilleure implantation de l'algorithme. Nous montrons comment ses elements, c'est a dire, la memoire, le reseau d'interconnexion et les unites de calcul sont concus afin d'etre modifies pour adapter l'architecture a l'algorithme. Les unites de calcul, le controle de la memoire et le reseau d'interconnexion sont directement implantes dans les fpgas. Le systeme de memorisation fournit differents largeurs de donnees et types d'acces. Il comprend une memoire partagee, et chaque unite de calcul dispose d'une memoire locale. L'architecture est organisee sur plusieurs cartes et s'interface selon differents standards de bus (pci, vme, ) avec un ordinateur hote.
APA, Harvard, Vancouver, ISO, and other styles
43

Torres, Lucio Domingo. "Elaboration et validation de LAPMAM : processeur parallèle SIMD/MIMD dédié au traitement bas et moyen niveau d'images." Nancy 1, 1999. http://www.theses.fr/1999NAN10293.

Full text
Abstract:
Les processeurs parallèles à architecture monodimensionnelle présentent un bon compromis entre complexité matérielle et performances de traitement pour des applications de traitement d'images. LAPCAM (Linear Array Processors with Content addressable Memory) se classe dans cette catégorie et une étude théorique initiale à montré les performances intéressantes de cette architecture en comparaison avec des machines de même complexité. L'association originale d'un réseau linéaire de processeurs élémentaires et d'une mémoire CAM matricielle communicant à travers un réseau arborescent a permis l'élaboration d'algorithmes parallèles, tels que l'étiquetage de composantes connexes, dont la nature globale, par rapport aux données de l'image, rend son implantation peu efficace sur un microprocesseur. Les grandes lignes de l'architecture étant fixées une première étape du travail a été de définir de manière optimale, dans un objectif d'intégration VLSI, les bus de communication inter processeurs et entre processeurs et mémoire. Dans ce but, et compte tenu des différents modes de circulation des données, l'architecture de la mémoire a été reprécisée et des fonctions telles que RAM et FIFO furent optimisées. Pour compléter l'étude les entrées et sorties des données images furent également optimisées pour permettre un chargement parallèle aux processus de traitement en cours. La seconde phase a été consacrée à la définition des modes d'exécution des algorithmes et, par là même, à l'élaboration détaillée du processeur élémentaire. Le traitement bas niveau d'image conduit naturellement à faire fonctionner les PE en SIMD (Single Instruction Multiple Data). Les contraintes de réalisation d'un circuit intégré VLSI interdisent à priori la mise en oeuvre d'un fonctionnement MIMD pourtant nécessaire dans le cas de traitements de haut niveau. L'originalité du processeur élémentaire étudié est de permettre un fonctionnement MIMD limité sans pour autant alourdir l'architecture. Son architecture est de type RISC à instructions longues (VLIW) dont le jeu "standard" est complété par des instructions spécifiques aux multiples modes d'accès des mémoires ainsi qu'au fonctionnement en MIMD. Le contrôle de l'architecture parallèle, désormais, nommée LAPMAM (Linear Array Processors with Multi-mode Access Memory) est réalisé par un processeur hôte déterminant à chaque instant les opérations à exécuter par les PE. Les instructions de LAPMAM sont également très longues (VLIW) et comprennent les instructions et sous-instructions des PE ainsi que celles spécifiques au contrôle des communications en particulier du réseau arborescent. La dernière phase du travail, consacrée à l'implantation de LAPMAM en cellules logiques, grâce aux outils CADENCE, a pour objectif d'évaluer la faisabilité de l'architecture. Le développement d'un interpréteur de commande a permis l'exécution, sur le processeur synthétisé, d'algorithmes parallèles originaux, tels que filtrage médian, histogramme et étiquetage. Ces simulations au niveau logique confirment les très bonnes performances de LAPMAM comparées à d'autres solutions monodimensionnelles.
APA, Harvard, Vancouver, ISO, and other styles
44

Ma, Qiang. "Etude sur le transport d'énergie thermique à bas niveau à longues distances par procédé d'absorption ammoniac-eau." Chambéry, 2009. http://www.theses.fr/2009CHAMS016.

Full text
Abstract:
Dans cette thèse, l'objectif est d'évaluer les potentialités et les performances à attendre des procédés d'absorption de l'ammoniac et l'eau pour réaliser un transport de froid et /ou de chaleur sur long distance. Tout d'abord, il convient de présenter les systèmes déjà employés pour le transport d'énergie thermique à longue distance et comprendre leurs limites. Après cet état de l'art, le modèle mathématique d'absorption de l'ammoniac et l'eau est présenté. Les analyses des performances de transport de chaleur et de froid à longue distance avec tels systèmes sont détaillés. Les températures de fonctionnement et les rendements énergétiques attendus sont présentés. L'impact du transport des fluides sur les performances du procédé est étudié. Le coût du transport au niveau est évalué. Nouveaux cycles d'absorption sont envisagés pour la revalorisation de rejets thermiques basse température. Ensuite, un prototype de petite taille est installé pour vérifier expérimentalement la faisabilité thermodynamique. Pour compléter cette étude, l'analyse économique est réalisée
In this thesis, the object is to evaluate the potentials and the performances of the ammonia-water absorption processes in the transportation of low-grade thermal energy over long distance. First of all, it contains the already employed systems for the transportation of low-grade thermal energy over long distance and understands their limitations. After this state-of-the-art introduction, the mathematical model of the ammonia-water absorption system is presented. The analysis of the performance of the transportation of low-grade thermal energy over long distance with this kind of systems is detailed. The output temperatures ranges are presented. The impact of the transportation process on the performance is studied. The investment cost of the transportation pipes was evaluated. Novel ammonia-water absorption cycles are proposed for the revalorization of the low-grade thermal energy. And then, a small-scale prototype is installed to experimentally verifier the thermodynamic feasibility. In order to complete the study, the economical analysis is realized
APA, Harvard, Vancouver, ISO, and other styles
45

Macé, Olivier. "Sommes de trois carrés en deux variables et représentation de bas degré pour le niveau des courbes réelles." Phd thesis, Université Rennes 1, 2000. http://tel.archives-ouvertes.fr/tel-00006239.

Full text
Abstract:
Dans l'esprit du théorème de Cassels, Ellison et Pfister qui démontre que le polynôme de Motzkin est une somme de 4 carrés et pas de 3 carrés de fractions dans R(X,Y), on construit des familles de polynômes de ce type de la forme Y^4+A(X)Y^2+B(X). La méthode est une extension de celle de Cassels, Ellison et Pfister : 2-descentes sur des courbes elliptiques.
APA, Harvard, Vancouver, ISO, and other styles
46

Kazemi, Kamran. "L' intégration d'information bas et haut-niveau pour la segmentation optimisée d'images cérébrales 3D chez l'enfant nouveau-né." Amiens, 2008. http://www.theses.fr/2008AMIED004.

Full text
Abstract:
La première étape de cette Thèse était de créer un atlas probabiliste du cerveau néonatal comprenant un atlas 'template' et des modèles probabilistes du cerveau, du liquide cérébro-spinal (CSF) et du crâne. L'atlas est basé sur les images IRM T1 en haute résolution de 7 patients d’âge gestationnel compris entre 39 et 42 semaines. L'atlas 'template' a été évalué par la détermination de la déviation de points de repère anatomiques caractéristiques et la somme total de déformation locale nécessaire pour la normalisation des tissus cérébraux en fonction d’une image néonatale de référence. Dans la deuxième partie, nous avons construit un simulateur d’images IRM cérébrales néonatales à partir de notre fantôme 3D néonatal numérique. Ce fantôme est composé de 9 types tissulaires différents: scalpe, crâne, graisse, muscle, dure-mère, substance grise, substance blanche, myelinisée et non-myelinisée et liquide cérébrospinal. Le fantôme numérique a été utilisé pour caractériser les intensités des signaux pour simuler ensuite les images IRM. Les images simulées avec une dégradation bien contrôlée peuvent servir comme données d'évaluation pour des méthodes d'analyse des images IRM néonatales, tel que des algorithmes de segmentation et/ou d’acquisition. Dans la dernière partie, nous avons développé une méthode de segmentation tissulaire automatique pour les IRM néonatales. Dans cette étude, nous avons appliqué un algorithme basé sur un atlas permettant la segmentation du crâne, du cerveau, et du CSF chez le nouveau-né à partir des images IRM 3D en T1. Nous avons utilisé la méthode de segmentation basée sur l'algorithme EM et la chaîne aléatoire de Markov qui est implémentée et utilisée dans l'outil SPM et sa boîte à outils VBM en conjonction avec notre atlas probabiliste, qui est utilisé pour constituer des informations a priori. Les résultats démontrent que notre méthode permet de segmenter avec une grande précision le cerveau, le CSF et le crâne des IRM néonatales
In this thesis, as the first step, we created a neonatal brain probabilistic atlas consisting of atlas template and probabilistic models for brain, cerebrospinal fluid (CSF) and skull. The atlas is created based on high resolution T1 Magnetic Resonance images of 7 individuals with gestational ages between 39 and 42 weeks at date of examination. The atlas template was evaluated by i) determining the deviation of characteristic anatomical landmarks and ii) the total amount of local deformation needed for the different brain tissues to meet the normalized neonatal image. In the second part of the thesis, we constructed a neonatal cerebral MR image simulator based on our created 3D digital neonatal neurocranial phantom. The created neonatal brain phantom consists of 9 different tissue types: scalp, skull, fat, muscle, dura mater, gray matter, myelinated white matter, non-myelinated white matter and CSF. The digital phantom was used to map simulated nuclear magnetic resonance signal intensities to simulate MR images of the newborns' head. The simulated images with controlled degradation of image data may serve as an evaluation data set for evaluating neonatal MRI analysis methods, e. G. Segmentation/registration algorithms. In the last part of this thesis, we developed an automatic tissue segmentation method for newborn brains from magnetic resonance images. We applied an atlas based algorithm for brain, CSF and skull segmentation of the newborns from 3D T1 weighted MR images. We used the segmentation method based on EM algorithm and Markov random filed which is implemented in SPM toolbox and its VBM toolbox in conjunction with our created probabilistic atlas as prior information. The results demonstrate that our method realizes a tool capable to segment reliably brain, CSF and skull from MRI of neonates
APA, Harvard, Vancouver, ISO, and other styles
47

GUESSAB, SYLVIE. "Etude de films de polyacrylonitrile post-traites en vue d'une utilisation comme revetements de contacts electriques bas-niveau." Paris 6, 1998. http://www.theses.fr/1998PA066152.

Full text
Abstract:
Pour proteger les contacts electriques bas-niveau (sans arc ni echauffement) de la corrosion, on utilise des revetements terminaux en metal. L'or, peu reactif, est le plus performant mais son cout limite son utilisation. L'etude prospective menee par notre laboratoire vise a remplacer la couche de metal par un film conducteur a base de polyacrylonitrile (pan). Le pan, polymere stable et peu reactif, peut etre greffe sur des substrats metalliques et rendu conducteur par recuit. Les premiers resultats, obtenus entre 1990 et 1995 avec des echantillons typiquement industriels, revelerent pour les films les plus cuits des performances electriques comparables a celles des revetements metalliques. Cependant, l'epaisseur des films et la rugosite du substrat etant du meme ordre de grandeur, le film pouvait avoir ete perce lors du contact. L'etude prit une orientation plus fondamentale a partir de 1995 : les contraintes industrielles furent temporairement abandonnees pour des echantillons de laboratoire reproductibles et bien definis (substrats de faible rugosite recouverts d'un film de pan plus epais). Leur elaboration, leur recuit sous vide secondaire et leur caracterisation ont fait l'objet du present travail. La resistance de contact en mode statique et le comportement sous friction sont evalues grace a deux dispositifs specifiques originaux : les performances electriques et l'effet lubrifiant des films sont spectaculaires. Leur resistance a la corrosion, testee industriellement, est appreciable. L'observation au microscope a force atomique semble infirmer le percement macroscopique du film lors du contact. L'analyse physico-chimique des echantillons, en surface et en profondeur, ainsi que la cartographie electrique grace a un procede original, permettent de mieux comprendre l'origine des performances des films. Enfin, les limitations de l'objet, concernant notamment la faisabilite industrielle, sont enoncees ; des voies de recherche sont proposees pour y remedier.
APA, Harvard, Vancouver, ISO, and other styles
48

Guironnet, Mickaël. "Méthodes de résumé de vidéo à partir d'informations bas niveau, du mouvement de caméra ou de l'attention visuelle." Université Joseph Fourier (Grenoble), 2006. http://www.theses.fr/2006GRE10155.

Full text
Abstract:
Le volume grandissant de vidéos a suscité le besoin de nouveaux outils d'aide à l'indexation. Un des outils possibles est le résumé de vidéo qui permet de fournir un aperçu rapide à l'usager. L'objectif de cette thèse est d'extraire, à partir d'informations visuelles, un résumé de vidéo contenant le « message » de la vidéo. Nous avons choisi d'étudier trois nouvelles méthodes de résumé de vidéo utilisant différentes informations visuelles. La première méthode de résumé repose sur des caractéristiques de bas niveau (couleur, orientation et mouvement). La combinaison de ces index qui s'appuie sur un système d'inférence floue a permis de construire un résumé hiérarchique. Nous avons montré l'intérêt d'un tel résumé dans une application de la recherche par l'exemple. La deuxième méthode de résumé est construite à partir du mouvement de caméra. Cette caractéristique de plus haut niveau sémantique est réfléchie par le réalisateur et induit une information sur le contenu. Une méthode de classification des mouvements basée sur le Modèle des Croyances Transférables est élaborée. La méthode de résumé est alors établie selon des règles sur l'amplitude et l'enchaînement des mouvements de caméra identifiés. La troisième méthode de résumé est développée à partir de l'attention visuelle. Connaître les endroits où le regard se porte lors du visionnage de la vidéo est une information de plus haut niveau sémantique et pertinente pour créer le résumé. Un modèle spatio-temporel d'attention visuelle est proposé, puis utilisé pour détecter le changement de contenu au cours du temps afin de construire le résumé
The growing volume of video leads to the need of new tools for indexing. One of the possible tools is video summary which provides a fast overview to the user. The objective of this thesis is to extract from visual information, a summary containing the “message” of video. We chose to study three new methods of video summary using different types of visual features. The first method of summary rests on low level features (color, orientation and motion). The combination of these features which is based on a fuzzy inference system allows a hierarchical summary to be built. We show the interest of such a summary in an application of query by example. The second method of summary is built from camera motion. This higher level feature is thought by the filmmaker and so induces information on the content. A method of camera motion classification based on Transferable Belief Model is achieved. The method of summary is elaborated according to rules about the magnitude and the chain of the identified motions. The third method of summary is developed from visual attention. To know the places where the glance is directed during the video playback is higher level information and relevant to create the summary. A spatio-temporal attention model is proposed, and then used to detect the change of content in time in order to build the summary
APA, Harvard, Vancouver, ISO, and other styles
49

Antoine, Corinne. "Etude de la réactivité à la douleur et des conduites auto et hétéro-agressives chez 78 enfants autistes de bas niveau et 30 enfants autistes de haut niveau." Paris 11, 2000. http://www.theses.fr/2000PA11T004.

Full text
Abstract:
La présente recherche transversale et longitudinale (sur 3 ans), étudie chez les enfants autistes les comportements auto et hétéro-agressifs et de réactivité à la douleur. Nos réflexions se sont appuyées sur des observations cliniques, qui suggèrent dans l'autisme infantile l'évolution positive suivante : passage d'une absence de conduite agressive extériorisée ou d'une auto-agressivité à une hétéro-agressivité ; disparition de l'analgésie et apparition d'une réactivité normale à la douleur, en passant par une phase d' hyperesthésie cutanée. L'hypothèse de cette étude est qu'il existerait dans l'autisme infantile différentes formes cliniques qui correspondraient à des stades évolutifs du emportement agressif et de la réactivité à la douleur en rapport avec la sévérité des troubles autistiques. Ce travail a plusieurs objectifs : - Elaborer et valider des échelles d'évaluation de conduites auto- et hétéro­agressives et de réactivité à la douleur adaptées à l'autisme. - Etudier sur le plan transversal et longitudinal, dans une population de 78 enfants autistes de bas niveau (QI <50), les comportements auto- et hétéro-agressifs et de réactivité à la douleur ainsi que leurs relations à la sévérité de l'autisme. - Comparer les comportements auto- et hétéro-agressifs et de réactivité à la douleur ainsi que leurs relations dans une population d'autistes de haut niveau (QI>70) et dans une population d'autistes de bas niveau. Il apparaît que la diminution de réactivité à la douleur observée dans l’autisme relèverait plus d'un mode d'expression différent de la douleur en rapport avec la sévérité des troubles de la communication et de la socialisation que d'une réelle analgésie. Cette étude pourrait ouvrir sur de nouvelles perspectives quant au suivi des patients autistes, la réactivité à la douleur pouvant constituer un bon indicateur de l'évolution de l'autisme infantile. Des recherches ultérieures, neurophysiologiques, sont nécessaires. A la suite de cette étude, nous proposons également un nouveau modèle de compréhension des conduites auto-agressives, de la diminution de la réactivité à la douleur et de leur articulation dans l'autisme. Du fait de la complexité étiologique de l'autisme, il serait nécessaire à partir d'une approche multi-disciplinaire de confronter différents champs et démarches méthodologiques, notamment au travers d'une approche intégrée bio-psycho­environnementale de l'autisme.
APA, Harvard, Vancouver, ISO, and other styles
50

Dubar, Christophe. "Mise en œuvre d'un processeur de vision : conception de circuits intégrés spécifiques pour l'implantation de l'algorithmie de bas-niveau." Compiègne, 1986. http://www.theses.fr/1986COMPI246.

Full text
Abstract:
Notre but était la mise en œuvre d’un système de vision permettant l’implantation de toutes les fonctionnalités de bas-niveau. Dans un premier temps, nous avons étudié l’algorithmie de bas-niveau pour mettre en évidence les fonctionnalités nécessaires. Ensuite nous avons effectué un survol des différentes architectures de processeurs envisageables, afin de déterminer les mieux adaptées à nos objectifs. Le système proposé est composé de deux processeurs. Le premier, à structure pipeline, est dédié à l’implantation des opérations ponctuelles et locales. Le second a une structure de base de type Von Neumann. Il autorise de plus le recouvrement entre les accès aux pixels dans la mémoire d’image et le traitement dans une mémoire locale. Il est utilisé pour effectuer le reste des opérations de bas-niveau, ainsi que celles de niveaux intermédiaires. Son implantation en réseau multiprocesseur est envisagée. Cette étude nous a amené à concevoir deux circuits intégrés (SCIP et CHIC) dérivés de sous-ensembles du processeur pipeline. Le premier de ces circuits, SCIP, est une fonction de calcul pouvant être cascadée. Il permet l’implémentation des opérations ponctuelles et locales (convolution MxN et érosion-dilatation). Le temps de traitement dépend du nombre de boitier SCIP utilisés : il varie de une à MxN trames vidéo. Le second boitier, CHIC permet la détermination de l’histogramme, le calcul des extrema globaux et de l’histogramme égalisé, ainsi que son transfert DMA en une trame vidéo. Pour chacun de ces modules, nous détaillons l’architecture interne et le mode de fonctionnement, ainsi que les performances dans des configurations classiques.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography