To see the other types of publications on this topic, follow the link: Images de champs de lumière.

Dissertations / Theses on the topic 'Images de champs de lumière'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Images de champs de lumière.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Zhang, Zhengyu. "Quality Assessment of Light Field Images." Electronic Thesis or Diss., Rennes, INSA, 2024. http://www.theses.fr/2024ISAR0002.

Full text
Abstract:
Les images de champs de lumière (LFI) suscitent un intérêt et une fascination remarquables en raison de leur importance croissante dans les applications immersives. Étant donné que les LFI peuvent être déformés à différentes étapes, de l'acquisition à la visualisation, l'évaluation de la qualité des images de champs de lumière (LFIQA) est d'une importance vitale pour surveiller les dégradations potentielles de la qualité des LFI.La première contribution (Chapitre 3) de ce travail se concentre sur le développement de deux métriques LFIQA sans référence (NR) fondées sur des caractéristiques ad-hoc, dans lesquelles les informations de texture et les coefficients ondelettes sont exploités pour l'évaluation de la qualité.Puis dans la deuxième partie (Chapitre 4), nous explorons le potentiel de la technologie de l’apprentissage profond (deep learning) pour l'évaluation de la qualité des LFI, et nous proposons quatre métriques LFIQA basées sur l’apprentissage profond, dont trois métriques sans référence (NR) et une métrique Full-Reference (FR).Dans la dernière partie (Chapitre 5), nous menons des évaluations subjectives et proposons une nouvelle base de données normalisée pour la LFIQA. De plus, nous fournissons une étude comparative (benchmark) de nombreuses métriques objectives LFIQA de l’état de l’art, sur la base de données proposée
Light Field Image (LFI) has garnered remarkable interest and fascination due to its burgeoning significance in immersive applications. Since LFIs may be distorted at various stages from acquisition to visualization, Light Field Image Quality Assessment (LFIQA) is vitally important to monitor the potential impairments of LFI quality. The first contribution (Chapter 3) of this work focuses on developing two handcrafted feature-based No-Reference (NR) LFIQA metrics, in which texture information and wavelet information are exploited for quality evaluation. Then in the second part (Chapter 4), we explore the potential of combining deep learning technology with the quality assessment of LFIs, and propose four deep learning-based LFIQA metrics according to different LFI characteristics, including three NR metrics and one Full-Reference (FR) metric. In the last part (Chapter 5), we conduct subjective experiments and propose a novel standard LFIQA database. Moreover, a benchmark of numerous state-of-the-art objective LFIQA metrics on the proposed database is provided
APA, Harvard, Vancouver, ISO, and other styles
2

Hawary, Fatma. "Light field image compression and compressive acquisition." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S082.

Full text
Abstract:
En capturant une scène à partir de plusieurs points de vue, un champ de lumière fournit une représentation riche de la géométrie de la scène, ce qui permet une variété de nouvelles applications de post-capture ainsi que des expériences immersives. L'objectif de cette thèse est d'étudier la compressibilité des contenus de type champ de lumière afin de proposer de nouvelles solutions pour une imagerie de champs lumière à plus haute résolution. Deux aspects principaux ont été étudiés à travers ce travail. Les performances en compression sur les champs lumière des schémas de codage actuels étant encore limitées, il est nécessaire d'introduire des approches plus adaptées aux structures des champs de lumière. Nous proposons un schéma de compression comportant deux couches de codage. Une première couche encode uniquement un sous-ensemble de vues d’un champ de lumière et reconstruit les vues restantes via une méthode basée sur la parcimonie. Un codage résiduel améliore ensuite la qualité finale du champ de lumière décodé. Avec les moyens actuels de capture et de stockage, l’acquisition d’un champ de lumière à très haute résolution spatiale et angulaire reste impossible, une alternative consiste à reconstruire le champ de lumière avec une large résolution à partir d’un sous-ensemble d’échantillons acquis. Nous proposons une méthode de reconstruction automatique pour restaurer un champ de lumière échantillonné. L’approche utilise la parcimonie du champs de lumière dans le domaine de Fourier. Aucune estimation de la géométrie de la scène n'est nécessaire, et une reconstruction précise est obtenue même avec un échantillonnage assez réduit. Une étude supplémentaire du schéma complet, comprenant les deux approches proposées est menée afin de mesurer la distorsion introduite par les différents traitements. Les résultats montrent des performances comparables aux méthodes de synthèse de vues basées sur la l’estimation de profondeur
By capturing a scene from several points of view, a light field provides a rich representation of the scene geometry that brings a variety of novel post-capture applications and enables immersive experiences. The objective of this thesis is to study the compressibility of light field contents in order to propose novel solutions for higher-resolution light field imaging. Two main aspects were studied through this work. The compression performance on light fields of the actual coding schemes still being limited, there is need to introduce more adapted approaches to better describe the light field structures. We propose a scalable coding scheme that encodes only a subset of light field views and reconstruct the remaining views via a sparsity-based method. A residual coding provides an enhancement to the final quality of the decoded light field. Acquiring very large-scale light fields is still not feasible with the actual capture and storage facilities, a possible alternative is to reconstruct the densely sampled light field from a subset of acquired samples. We propose an automatic reconstruction method to recover a compressively sampled light field, that exploits its sparsity in the Fourier domain. No geometry estimation is needed, and an accurate reconstruction is achieved even with very low number of captured samples. A further study is conducted for the full scheme including a compressive sensing of a light field and its transmission via the proposed coding approach. The distortion introduced by the different processing is measured. The results show comparable performances to depth-based view synthesis methods
APA, Harvard, Vancouver, ISO, and other styles
3

Amador, Emmanuel. "Modèles de compréhension par la théorie des images des phénomènes transitoires et du régime permanent en chambre réverbérante électromagnétique." Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00652164.

Full text
Abstract:
Les chambres réverbérantes électromagnétiques sont des moyens d'essai largement utilisés en compatibilité électromagnétique. Elles permettent notamment de réaliser des essais en immunité et des mesures de puissance totale rayonnée. Leur utilisation se fait dans le domaine harmonique. Ce travail propose une étude théorique et expérimentale du fonctionnement des chambres réverbérantes à brassage de modes dans le domaine temporel et dans le domaine harmonique en vue de réaliser des essais en immunité. Afin de décrire le comportement d'une chambre réverbérante dans le domaine temporel, nous avons choisi de développer un modèle numérique basé sur la théorie des images. À l'inverse des approches temporelles (FDTD ou TLM) ou encore des approches harmoniques (méthode des moments), la théorie des images permet de décrire l'environnement de propagation sans nécessiter de discrétisation. Le modèle prend en compte les dimensions de la chambre, la position de l'antenne émettrice dans la cavité et les pertes associées aux parois et aux objets tiers dans la cavité. Le modèle que nous proposons permet une description du comportement d'une chambre réverbérante dans le domaine temporel d'une part et dans le domaine harmonique d'autre part. Nous montrons que les formes d'ondes obtenues en simulations sont comparables aux formes d'ondes obtenues en régime pulsé dans la chambre réverbérante de l'IETR. D'un point de vue statistique, nous montrons que la statistique du champ simulé est conforme aux mesures et notamment que le modèle est capable de reproduire le fonctionnement de la chambre en régime non idéal. Le modèle développé est ensuite utilisé pour étudier les essais en immunité. Tout d'abord nous cherchons à évaluer les performances d'un essai en immunité en chambre réverbérante et en onde plane (chambre anéchoïque) pour des objets sous test aux caractéristiques radioélectriques variables. Nous proposons une mesure de la susceptibilité en chambre réverbérante qui est compatible avec une mesure en onde plane. Nous cherchons ensuite à optimiser les essais en immunité en proposant des protocoles qui assureraient des essais plus fiables et moins longs. Enfin, nous proposons une méthode expérimentale pour réaliser des essais en immunité avec des signaux pulsés qui soit représentative d'une illumination réelle.
APA, Harvard, Vancouver, ISO, and other styles
4

Goloub, Philippe. "Modèle radiométrique du polarimètre imageur grand champ POLDER : analyses préliminaires des observations en lumière polarisée." Lille 1, 1992. http://www.theses.fr/1992LIL10147.

Full text
Abstract:
Les activités humaines ont atteint une telle ampleur qu'elles deviennent susceptibles de modifier le climat terrestre. L'aspect global des problèmes climatiques requiert une observation à l'échelle satellitaire. Le Laboratoire d'Optique Atmosphérique est à l'origine du polarimètre imageur POLDER (Polarisation and Directionnality of Earth Reflectance) qui permettra d'obtenir dès 1996 à partir de la plate-forme satellite japonaise ADEOS les caractéristiques spectrales, directionnelles et polarisées du rayonnement rediffusé par le système terre-atmosphère dans le domaine visible de 0,443 μm à 0,910 μm. La première partie de ce travail concerne le développement et la validation du modèle radiométrique instrumentale, ainsi que la définition des protocoles d'étalonnage en laboratoire et en vol durant la vie du capteur. Dans la seconde partie, notre objectif a consisté à montrer, à travers les premières observations réalisées par le simulateur aéroporté développé au L. O. A. , l'intérêt de la mesure de l'état de polarisation pour caractériser plus finement les propriétés micro-physiques et optiques des aérosols troposphériques tant au-dessus des surfaces émergées que des surfaces océaniques. Nous avons également mis en évidence l'intérêt des mesures en lumière polarisée aux courtes longueurs d'onde pour estimer l'altitude des nuages dont la connaissance est essentielle pour évaluer avec précision leur impact radiatif
APA, Harvard, Vancouver, ISO, and other styles
5

Le, fournis Romuald. "Propagation de la lumière dans la matière en présence de champs électromagnétiques." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALY011.

Full text
Abstract:
Dans cette thèse, nous nous concentrons sur l'analyse des forces et des couples résultant de l'interaction entre la matière et le champ électromagnétique, chacun décrit de manière classique ou quantique. Nous explorons comment l'ajout de champs électriques et magnétiques externes modifie les moments mécaniques agissant sur le milieu. Les champs externes peuvent avoir un impact significatif, altérer les trajectoires des particules, induire un moment angulaire ou provoquer des changements dans les niveaux d'énergie des états quantiques.La thèse s’articule autour de deux axes connectés, chacun offrant une perspective différente sur l’interaction entre la lumière et la matière en présence de champs extérieurs.Dans le premier axe, nous nous immergeons dans le domaine de l'électrodynamique quantique (QED) pour étudier le rôle du vide quantique dans les forces électromagnétiques. Notre attention se porte particulièrement sur deux forces classiques distinctes: la force d’Abraham et la force d’Aharonov-Casher. Ces deux forces sont notamment au cœur de la controverse d’Abraham-Minkoswki discuté dans le premier chapitre de cette thèse.Le premier axe est exploré dans les chapitres 2 et 3 qui se concentrent sur la modification de l’impulsion du vide quantique en présence de matière et de champs électromagnétiques externes. La modification de l’impulsion du vide quantique entraîne l’existence d’une force du vide quantique sur la matière, mais reste inobservée expérimentalement. Pour cette investigation nous utilisons une approche QED ainsi qu’un modèle microscopique.Dans le chapitre 2 nous étudions les contributions du vide quantique à la force d’Abraham agissant sur un atome de Rydberg en présence d’un champ électrique et d’un champ magnétique croisés. Notre de but est de déterminer si les atomes de Rydberg ont le potentiel pour permettre d'observer les contributions du vide quantique à la force d’Abraham classique.Le chapitre 3 est quant à lui axé sur la force d’Aharonov-Casher. Celle-ci n’a jamais été observé pour l’heure car elle est extrêmement petite. Nous calculons la force du vide pour un atome de Rydberg avec un grand moment magnétique soumis à un champ électrique afin de déterminer si le vide quantique est susceptible de générer une force d’Aharonov-Casher.Le deuxième axe adopte une approche classique de l'interaction entre la lumière et la matière, se concentrant sur les couples sur la matière induits par le champ électromagnétique.Le chapitre 4 est dévoué à l'étude de la radiation de moment angulaire d’une source entourée par un environnement magnéto-biréfringent. Plus précisément, nous caractérisons l’influence de la diffusion multiple de la lumière sur la radiation de moment angulaire ainsi que sur le couple agissant sur la matière.Bien que les deux axes adoptent des approches différentes, ils restent étroitement interconnectés. La force et le couple, fondamentaux en mécanique, entretiennent une relation intime, et l'étude des deux offre une image plus complète des interactions entre la lumière et la matière en présence de champs externes. En conséquence, les deux axes se complètent mutuellement, offrant une perspective globale et éclairée sur ce domaine d'étude sous des angles complémentaires. Une présentation détaillée des deux axes de recherche, ainsi que leurs outils mathématiques, est fournie dans le chapitre 1
In this thesis, we focus on the analysis of forces and torques resulting from the interaction between matter and the electromagnetic field, both either described classically or quantum-mechanically. We explore how the addition of external electric and magnetic fields modifies the mechanical moments acting on the medium. External fields can have a significant impact, alter particle trajectories, induce angular momentum, or cause changes in the energy levels of quantum states.The thesis splits up into two related axes, each offering a different perspective on the interaction between light and matter in the presence of external fields.In the first axis, we delve into the field of quantum electrodynamics (QED) to study the role of the quantum vacuum in electromagnetic forces. Our focus is on two distinct classical forces: the Abraham force and the Aharonov-Casher force. Both these forces are central to the Abraham-Minkoswki controversy discussed in the first chapter of this thesis.The first axis is explored in Chapters 2 and 3, which focus on the modification of quantum vacuum momentum in the presence of matter and external electromagnetic fields. The modification of quantum vacuum momentum leads to the existence of a quantum vacuum force on matter but remains unobserved experimentally. For this investigation, we employ a QED approach along with a microscopic model.In Chapter 2, we study the contributions of the quantum vacuum to the Abraham force acting on a Rydberg atom in the presence of crossed electric and magnetic fields. Our goal is to determine whether Rydberg atoms are good candidates for the observation of the quantum vacuum contributions to the classical Abraham force.Chapter 3 is focused on the Aharonov-Casher force. This force has not been observed so far because it is extremely small. We calculate the quantum vacuum force for a Rydberg atom with a large magnetic moment exposed to an electric field to determine if the quantum vacuum is capable of generating an Aharonov-Casher force.The second axis adopts a classical approach to the interaction between light and matter, focusing on the torques exerted on matter by the electromagnetic field.Chapter 4 is devoted to the study of the angular momentum radiation from a source surrounded by a magneto-birefringent environment. More precisely, we characterize the influence of multiple light scattering on angular momentum radiation as well as on the torque acting on matter.Although both axes adopt different approaches, they remain closely interconnected. Force and torque, fundamental in mechanics, share an intimate relationship, and the study of both provides a more comprehensive picture of the interactions between light and matter in the presence of external fields. As a result, both axes complement each other, offering a global and enlightened perspective on this field of study from complementary angles. A detailed presentation of both lines of research including their mathematical tools is provided in Chapter 1
APA, Harvard, Vancouver, ISO, and other styles
6

Salmons, Stéphane. "Aspects de la quantification des théories de champs scalaires sur le cône de lumière." Phd thesis, Université Paris-Diderot - Paris VII, 2000. http://tel.archives-ouvertes.fr/tel-00007971.

Full text
Abstract:
La quantification sur le cône de lumière est une méthode de quantification opérant dans la Front Form de Dirac et nécessitant une procédure de traitement des contraintes dynamiques. Elle est abordée dans le cas de deux théories scalaires. La théorie phi4 (1+1) est examinée à l'aide d'une formulation continue du développement de Haag des champs et des modes zéros (CLCQ). Ceci permet une résolution originale des équations du mouvement et des contraintes ainsi qu'une renormalisation consistante des divergences infrarouges et ultraviolettes. L'analyse de la transition de phase fait apparaître au deuxième ordre un couplage critique non perturbatif de valeur analogue aux résultats du quatrième ordre des méthodes conventionnelles. L'étude comparée du commutateur de Pauli-Jordan dans les formulations discrètes et continues montre que la violation de causalité n'est qu'un pur effet de taille finie associé à la soustraction du mode zéro dans les sommes discrètes. L'étude de la théorie phi4 (3+1) O(N) est amorcée par le calcul des champs et des modes zéros à l'ordre 3 du développement en 1/sqrt(N) qui permet de retrouver jusqu'à l'ordre 1/N^3 les fonctions de corrélation conventionnelles obtenues par intégrales de chemin.
APA, Harvard, Vancouver, ISO, and other styles
7

Boulenguez, Pierre. "Caractérisation multispectrale imageante du champ de lumière de sources et de matériaux pour la photosimulation." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00587367.

Full text
Abstract:
Dans l'ouvrage [DBB06], Dutré et al. énumèrent dix problèmes d'Illumination Globale non résolus. Parmi ceux-ci, huit sont liés à la mesure et à l'intégration de données réelles dans les simulations. Cette thèse, en quatre parties et trois annexes, s'intéresse à cette problématique. Tout d'abord, les simulations de la propagation de la lumière dans les domaines du rendu physiquement réaliste, de l'éclairage, de la télédétection, de la conception de systèmes optiques... sont envisagées comme résolutions numériques d'un problème d'optique, fédérées par la notion de " photosimulation ". Dans le cadre de l'équation de rendu, les modèles réalistes de sources et le principe de la mesure goniophotométrique en champ lointain sont alors rappelés. La représentation des interactions lumière-matière est ensuite introduite par une exploration de l'apparence macroscopique, qui amène au rappel de la Fonction de Distribution de la Réflectance Bidirectionnelle et Spectrale (SBRDF), de ses principales propriétés et modèles. Le problème de la mesure pratique de la SBRDF d'une surface dans le visible est ensuite exploré. Id est, une taxonomie des méthodes de la littérature est établie ; qui allègue en faveur du développement de nouvelles approches. Un dispositif innovant, multispectral imageant, est alors présenté. Il se fonde sur la capture de la projection de la SBRDF sur un écran lambertien 3/4-sphérique, par une caméra multispectrale grand angle, assemblage d'un objectif fisheye, d'un filtre dynamique LCTF et d'une caméra CCD 12 bits. L'extraction des images capturées de l'information de la SBRDF repose sur un modéle radiométrique, qui explicite la transformation de la lumière en niveaux des pixels, dans le formalisme physique. Ce modèle soulève des problèmes de reconstruction multispectrale et d'interréflexions, pour lesquels de nouveaux algorithmes de résolution sont implantés. Les mesures de SBRDF produites semblent très prometteuses. Dans la troisième partie, le problème de la reconstruction d'une fonction directionnelle, identifié comme fondamental en photosimulation, est traité dans le cadre de la reconstruction de SBRDF discrètes. Pour cela, les propriétés mathématiques souhaitables des fonctions reconstruites sont envisagées. Puis, à l'aune de ce corpus, les approches de la littérature sont discutées ; justifiant la recherche d'algorithmes plus performants. Une nouvelle méthode est alors proposée, fondée sur une double triangulation sphérique des échantillons, et une généralisation à la surface d'un triangle sphérique de l'interpolant spline cubique de Hermite. La fonction reconstruite est interpolante, dérivable, quasi-déterministe, ne présente pas l'artéfact bidirectionnel, intègre la métrique sphérique non euclidienne, et prend en compte le difficile problème du masquage. Qualitativement comme quantitativement, les résultats obtenus semblent plaider en faveur du surcroît de complexité théorique qu'induit cette approche. Dans la dernière partie, cet algorithme de reconstruction est appliqué au problème de la " photométrie en champ proche ", ou, la caractérisation d'une source réelle par un solide photométrique étendu. La supériorité théorique du modèle étendu est d'abord démontrée. Puis, un état de l'art de la photométrie en champ proche est réalisé ; justifiant la mise en œuvre d'une nouvelle approche. Un nouveau dispositif est alors présenté. Il repose sur le déplacement d'un vidéoluminancemètre, couplage original d'une caméra CCD 12 bits avec un luxmètre, le long d'une trajectoire hémisphérique relative à la source. Les procédures de calibrage de l'instrument - géométrique, radiométrique, et photométrique - sont explicitées. Les sources de lumière caractérisées par cette approche ont été jugées suffisamment probantes pour être intégrées aux photosimulations spectrales du CSTB
APA, Harvard, Vancouver, ISO, and other styles
8

Piedpremier, Julien. "Les grandes images." Paris 8, 2005. http://www.theses.fr/2005PA082545.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Tupin, Florence. "Champs de Markov sur graphes pour le traitement des images radar /." Paris : École nationale supérieure des télécommunications, 2007. http://catalogue.bnf.fr/ark:/12148/cb41098170v.

Full text
Abstract:
Habilitation à diriger des recherches--Traitement du signal et des images--Paris--ENST, 2007.
La p. de titre et la couv. portent en plus : "Département Traitement du signal et des images. Groupe Traitement et interprétation des images" Bibliogr. p. 103-117.
APA, Harvard, Vancouver, ISO, and other styles
10

Hébert, David. "Champs aléatoires conditionnels pour l'extraction de structures dans les images de documents." Rouen, 2013. http://www.theses.fr/2013ROUES029.

Full text
Abstract:
Les travaux réalisées dans cette thèse s'inscrivent dans le cadre du développement d'une chaîne d'analyse automatique des archives du "Journal de Rouen", au sein du projet PlaIR (Plateforme d'Indexaion Régionale). Nos travaux s'appuient sur l'exploitation des modèles de champs aléatoires conditionnels (CAC), des modèles graphiques discriminants particulièrement bien adaptés à la tâche d'extraction d'information qui nous intéresse. Dans une première contribution, nous proposons d'adapter ce modèle au cadre de l'analyse d'images où les descripteurs sont numériques. Une stratégie de quantification multi-échelles de descripteurs numériques est proposée afin d'identifier des entités structurantes dans les journaux. Ces entités sont utilisées par une stratégie de reconstruction des articles. Cette contribution a donné lieu à une intégration dans la chaîne de production de documents pour la plateforme d'indexation PlaIR. La seconde contribution exploite le modèle de champ aléatoire conditionnel pour proposer un schéma d'apprentissage générique de combinaison d'experts permettant de réaliser des tâches plus complexes d'extraction d'information dans les images de documents. Un couplage bi-dimensionnel de champs aléatoires conditionnels est proposé. Ce schéma est appliqué avec succès à l'extraction des zones textuelles et graphiques dans des images de documents contemporains ainsi que sur une tâche de binarisation de documents dégradés. Les expériences réalisées montrent que le modèle de couplage bidimensionnel de champs aléatoires conditionnels proposé peut constituer un opérateur de combinaison spatialisée d'experts tout à fait pertinent et générique.
APA, Harvard, Vancouver, ISO, and other styles
11

Roger, Jean-Claude. "Études spatiales en lumière polarisée : préparation de l'instrument POLDER." Lille 1, 1991. http://www.theses.fr/1991LIL10093.

Full text
Abstract:
Lors de ses interactions avec le système Terre-Atmosphère, le rayonnement solaire naturel se polarise. Le travail présenté ici participe aux études d'accompagnement de l'expérience POLDER. Cet instrument dédié à la mesure de la polarisation et de la bidirectionnalité du rayonnement solaire réfléchi par le système Terre-Atmosphère est actuellement retenu en phase B sur la plate-forme ADEOS de l'Agence Spatiale Japonaise. Après un rappel des différentes sources de la polarisation, une première étude aborde le dépouillement de photographies originales de la Terre en lumière polarisée prises à partir de la navette spatiale américaine. L'utilisation de références bien connues au-dessus des zones océaniques claires (diffusion moléculaire, glitter. . . ) ont permis un étalonnage approché, cohérent sur l'ensemble des scènes. La comparaison avec des modèles existants a fait apparaître des polarisations très faibles au-dessus des zones désertiques ou neigeuses. Au-dessus de plusieurs îles, la polarisation observée sur les sols est en bon accord avec les mesures «terrain» effectuées sur les couverts végétaux. Enfin, l'étude d'une scène côtière largement polluée a confirmé la netteté de l'information accessible sur les aérosols. La deuxième partie du travail se consacre à la préparation de l'expérience POLDER et plus particulièrement au développement d'un outil de calculs du signal en entrée de POLDER. Cet outil nous a permis de traiter le problème de l'optimisation des performances instrumentales et de déterminer les précisions théoriques de l'étalonnage absolu des canaux «courtes longueurs d'onde». Cet étalonnage, basé sur la diffusion moléculaire, est réalisé sur la luminance totale et sur la luminance polarisée et, est validé expérimentalement sur des données aéroportées
APA, Harvard, Vancouver, ISO, and other styles
12

Muller, Stéphane. "Approximations de l'optique physique en diffusion de lumière : application a des particules ellipsoïdales de grande taille." Nancy 1, 1998. http://www.theses.fr/1998NAN10182.

Full text
Abstract:
L’intégrale vectorielle de Kirchhoff est utilisée pour calculer le champ lointain diffusé par des particules ellipsoïdales d'indice de réfraction et d'orientation arbitraires. Le champ électromagnétique a la surface de la particule, en général inconnu, est principalement approximé par les lois de Fresnel, par la théorie de Fock et par la diffraction anormale. Les comparaisons aux théories exactes (Mie et Asano) ou à des méthodes numériques fiables (EBCM et DDA) montrent que l'approximation de l'optique physique (AOP) est en général très satisfaisante aux petits angles de diffusion, dès que la taille des diffuseurs est suffisante. L’AOP selon la diffraction anormale est généralisable à d'autres formes de particules, éventuellement inhomogènes. L’étude systématique du champ de surface d'une sphère parfaitement conductrice ou diélectrique, en fonction de son rayon, permet de mieux cerner le domaine de validité des approximations utilisées. La comparaison des champs approximes au champ réel montre l'existence de corrélations d'une part, entre les séries de mie et la fonction de Fock, et d'autre part, entre le champ de surface et les arcs-en-ciel. La dernière partie traite de la déformabilité des hématies contraintes par un écoulement visqueux de type couette. Les diagrammes expérimentaux de diffusion aux petits angles, en lumière rouge ou verte, sont utilisés pour déduire la taille et la forme des globules rouges à l'aide des approximations précédentes. Cette étude quantitative montre que les hématies ont une forme ellipsoïdale dont les extrémités sont légèrement amincies.
APA, Harvard, Vancouver, ISO, and other styles
13

Mangin-Brinet, Mariane. "Description relativiste des systèmes composites simples par la dynamique du front de lumière." Paris 7, 2001. http://www.theses.fr/2001PA077098.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Strauss, Olivier. "Perception de l'environnement par vision en lumière structurée : segmentation des images par poursuites d'indices." Montpellier 2, 1992. http://www.theses.fr/1992MON20010.

Full text
Abstract:
Nous avons presente dans ce memoire une etude qui a pour objet la perception 3d de l'environnement par un systeme de vision en lumiere structuree. Le capteur utilise est constitue d'une camera ccd et d'un plan de lumiere laser pilote en rotation par un miroir monte sur un deflecteur galvanometrique. La premiere partie de ce travail est consacree au calibrage du capteur, c'est-a-dire a l'identification des parametres du modele qui permet de traduire les images d'intensite en images de distance. Nous montrons qu'il est possible d'ameliorer la qualite statistique de l'identificateur en utilisant en algorithe non lineaire. La matrice de variance d'identification des parametres fait l'objet d'une evaluation par l'estimateur de quenouille-tuckey. Nous avons ensuite mis au point une methode originale de segmentation recursive de l'image. Elle est basee sur l'analyse de la segmentation des traits laser et sur la poursuite des fragments obtenus dans la sequence d'images fournie par le balayage de la scene. Les appariements de ces indices visuels font intervenir des criteres de ressemblance. Cette ressemblance est evaluee au moyen de regles de decision floue. L'efficacite de la methode resulte de la prise en compte, dans toute la chaine de traitement tant du bruit entachant les donnees que de l'incertitude sur les modeles utilises
APA, Harvard, Vancouver, ISO, and other styles
15

Oropeza, Rodríguez Damián. "Etude des états liés et de diffusion par la théorie quantique des champs sur le cône de lumière." Université Joseph Fourier (Grenoble), 2004. https://tel.archives-ouvertes.fr/tel-00007808.

Full text
Abstract:
Cette thèse porte sur le calcul des états liés et de diffusion de systèmes à deux corps dans une formulation explicitement covariante de la dynamique sur le front de lumière. Nous traitons dans ce cadre deux particules scalaires en interaction à l'approximation "ladder" (modèle de Wick-Cutkosky massif). Les états liés sont calculés (onde S et P) par une décomposition angulaire du potentiel. Nous montrons que la restriction de cette décomposition à sa première composante suffit pour décrire correctement le système, ce qui revient à approximer le potentiel par sa moyenne sur toutes les directions du front de lumière. Ce résultat facilite le traitement des états de diffusion. Nous calculons donc des déphasages élastiques (onde S et P). Or notre potentiel relativiste prend en compte l'ouverture d'un canal inélastique au-delà du seuil de création. Nous calculons donc des déphasages correspondant à l'émision d'un boson, qui violent cependant l'unitarité de la matrice S. La prise en compte la self-énergie permet de résoudre ce problème comme nous montrons par un calcul perturbatif. L'ajout de la self-énergie permet d'obtenir des déphasages inélastique respectant l'unitarité de S. Nous montrons aussi que la self-énergie modifie considérablement les conditions d'existence d'états liés. Nous considérons aussi le cas des deux fermions en interaction par un échange scalaire ou pseudo-scalaire (état J^ pi=0^+). Les états liés sont traités par une décomposition angulaire, mais la propriété de moyenne n'apparaît pas pour le couplage pseudo-scalaire. Elle apparaît pour le couplage scalaire, ce qui nous permet de calculer des déphasages élastiques et inélastiques à l'approximation ladder
This thesis concerns the two-body scattering and bound states in an explicitly covariant formulation of the light-front dynamics. We consider, in this framework, two scalar particles in interaction at the "ladder" approximation (massive Wick-Cutkosky model). S and P-waves bound states are calculated by an angular decomposition of the potential. We show that the first term of the decomposition gives already a very good description of the system, what is equivalent to take an averaged potential over the light-front directions. This results simplifies the treatment of the scattering states. We obtain the elastics phase shifts (S and P waves). Yet our relativistic potential take into account the first inelastic threshold, what corresponds to the one boson emission. These phase shifts do not respects the S-matrix unitarity. We show by a perturbative calculation that the addition of self-energy contributions permits to solve this problem. Adding this term, allows to obtain an inelastic phase-shift respecting S-matrix unitarity. We show also that the self-energy contribution strongly modifies the conditions of existence of a bound state. We consider also two fermions interacting by a scalar or pseudoscalar exchange (J^ pi=0^+ state). The bound states are calculated by the angular decomposition method, that works well here but fails in the pseudoscalar coupling. The average method is finally used to calculate the scattering states in the ladder approximation fo the scalar coupling
APA, Harvard, Vancouver, ISO, and other styles
16

Papadakis, Nicolas. "Assimilation de données images : application au suivi de courbes et de champs de vecteurs." Phd thesis, Université Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00655898.

Full text
Abstract:
Cette thèse traite de l'utilisation de méthodes séquentielles et variationnelles de suivi pour des problèmes de suivi dans des séquences d'images. Ces méthodes cherchent à estimer l'état d'un système à partir d'un modèle d'évolution dynamique et d'un ensemble d'observations bruitées et généralement incomplètes de l'état. Ces techniques sont appliquées à divers problèmes de vision par ordinateur: le suivi de courbe, l'estimation de champs de mouvement fluide et le suivi couplé de courbe et de champs de vecteurs. Nous montrons comment l'assimilation de données permet de gérer des occultations totales pendant le suivi d'objets sur une séquence d'images. Nous nous intéressons enfin à l'estimation de mouvement de couches atmosphériques à partir d'images satellitaires, puis étudions l'estimation de coefficients associés à des systèmes dynamiques réduits associés à la visualisation d'écoulements expérimentaux.
APA, Harvard, Vancouver, ISO, and other styles
17

Sutour, Camille. "Vision nocturne numérique : restauration automatique et recalage multimodal des images à bas niveau de lumière." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0099/document.

Full text
Abstract:
La vision de nuit des pilotes d’hélicoptère est artificiellement assistée par un dispositif de vision bas niveau de lumière constitué d’un intensificateur de lumière (IL) couplé à une caméra numérique d’une part, et d’une caméra infrarouge (IR) d’autre part. L’objectif de cette thèse est d’améliorer ce dispositif en ciblant les défauts afin de les corriger.Une première partie consiste à réduire le bruit dont souffrent les images IL. Cela nécessite d’évaluer la nature du bruit qui corrompt ces images. Pour cela, une méthode d’estimation automatique du bruit est mise en place. L’estimation repose sur la détection non paramétrique de zones homogènes de l’image. Les statistiques du bruit peuvent être alors être estimées à partir de ces régions homogènes à l’aide d’une méthode d’estimation robuste de la fonction de niveau de bruit par minimisation l1.Grâce à l’estimation du bruit, les images IL peuvent alors débruitées. Nous avons pour cela développé dans la seconde partie un algorithme de débruitage d’images qui associe les moyennes non locales aux méthodes variationnelles en effectuant une régularisation adaptative pondérée parune attache aux données non locale. Une adaptation au débruitage de séquences d’images permet ensuite de tenir compte de la redondance d’information apportée par le flux vidéo, en garantissant stabilité temporelle et préservation des structures fines.Enfin, dans la troisième partie les informations issues des capteurs optique et infrarouge sont recalées dans un même référentiel. Nous proposons pour cela un critère de recalage multimodal basé sur l’alignement des contours des images. Combiné à une résolution par montée de gradient et à un schéma temporel, l’approche proposée permet de recaler de façon robuste les deuxmodalités, en vue d’une ultérieure fusion
Night vision for helicopter pilots is artificially enhanced by a night vision system. It consists in a light intensifier (LI) coupled with a numerical camera, and an infrared camera. The goal of this thesis is to improve this device by analyzing the defaults in order to correct them.The first part consists in reducing the noise level on the LI images. This requires to evaluate the nature of the noise corrupting these images, so an automatic noise estimation method has been developed. The estimation is based on a non parametric detection of homogeneous areas.Then the noise statistics are estimated using these homogeneous regions by performing a robust l`1 estimation of the noise level function.The LI images can then be denoised using the noise estimation. We have developed in the second part a denoising algorithm that combines the non local means with variational methods by applying an adaptive regularization weighted by a non local data fidelity term. Then this algorithm is adapted to video denoising using the redundancy provided by the sequences, hence guaranteeing temporel stability and preservation of the fine structures.Finally, in the third part data from the optical and infrared sensors are registered. We propose an edge based multimodal registration metric. Combined with a gradient ascent resolution and a temporel scheme, the proposed method allows robust registration of the two modalities for later fusion
APA, Harvard, Vancouver, ISO, and other styles
18

Biron, Karole. "Dynamique forme/lumière : exploration du processus de création de l'espace architectural par modèles maquettes/images." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25823/25823.pdf.

Full text
Abstract:
L’acte de création est un moment privilégié lors du processus de conception architecturale et artistique. Vu comme une exploration, il offre une grande liberté de réflexion et d’action. C’est entre autres le lieu et le temps de l’imagination, de l’expérimentation matérielle, du développement conceptuel, de la construction de ce qui sera perçu. C’est un moment d’effervescence où l’on manipule intuitivement autant que l’on nomme intellectuellement. Pour les arts de l’espace, de multiples facteurs sont à considérer dès le début du processus. Formes, couleurs, tailles, emplacements et nombre, en sont quelques exemples. Au-delà de chacun de ces paramètres, l’espace, scène de l’ensemble de leurs interactions, devient un objet de création en soi. La recherche s’intéresse particulièrement à la relation spatiale et perceptuelle entre la lumière et l’objet, deux éléments se complétant et se modifiant de multiples façons, dont le potentiel esthétique est évident. Elle propose de réinitialiser le processus de création, par des manipulations simples et directes avec la matière, à travers une expérimentation en maquettes et en images photographiques, deux médiums familiers des architectes. Ces interventions minimales présentent à la fois une grande richesse de relations spatiales et de nombreuses informations sur les ambiances lumineuses. La recherche tente de circonscrire un vocabulaire des principaux paramètres de l’objet et de la lumière, conduisant à l’élaboration d’une méthode d’analyse pouvant aider architectes et artistes dans leurs explorations. Des notions, principes et qualificatifs sur l’espace, la forme, la lumière et la perception, servent à construire les tableaux d’analyse appliqués aux images de l’expérimentation en maquettes et à mettre en relief les éléments les plus actifs visuellement. Ce processus vise principalement à stimuler l’imagination et la créativité en architecture.
The act of creation is a privileged moment at the time of its artistic and architectural process. It is, among other things, the time and place for imagination, for experimentation with matter, for conceptual development and for the construction of what is perceived. It is a moment of enthusiasm and effervescence when we instinctively manipulate as well as conceive intellectually. As for the «Art of space», multiple factors are to be considered from the origin of its process such as, shapes, colours, sizes and positioning. Beyond each of these parameters, space, scene of its multiple interactions, becomes a creation in itself. This research particularly leans on the spatial and perceptual relation between objects and light, two elements completing and modifying each other in various ways, whereas its esthetic potential is obvious. It suggests the resetting of the creative process by direct and simple manipulations with matter, through miniature tryouts and photographic images, two familiar media of architectural practice. These minimal interventions simultaneously present a richness in spatial relations as well as information on luminous surroundings. The research proposes the circumscription of a vocabulary of the main parameters linking objects with light, leading to the elaboration of a method of creation and analysis to assist architects and artists in their creative explorations. The theoretical framework releases notions, principles and terms related to space, form, light and perception, assisting in the construction of physical models to visualize and control aspects of the invention. An exploration of a series of parameters of objects and lighting complete the research in order to stimulate the imagination and creativity in architecture.
APA, Harvard, Vancouver, ISO, and other styles
19

Nicolas, Stéphane. "Segmentation par champs aléatoires pour l'indexation d'images de documents." Rouen, 2006. http://www.theses.fr/2006ROUES058.

Full text
Abstract:
Avec le développement des technologies numériques, la valorisation de notre patrimoine documentaire est devenue un enjeu majeur, qui pose des difficultés d'indexation et d'accès à l'information. L'analyse de documents peut apporter une solution mais les méthodes classiques ne sont pas suffisamment souples pour s'adapter à la variabilité rencontrée. Notre contribution porte sur l'implémentation d'un modèle de champ de Markov 2D et d'un modèle de champ aléatoire conditionnel 2D, qui permettent de prendre en compte la variabilité et d'intégrer et d'intégrer des connaissances contextuelles, en bénéficiant de techniques efficaces d'apprentissage. Les expérimentations effectuées sur des brouillons d'auteurs et sur les manuscrits de la Renaissance, montrent que ces modèles représentent une solution intéressante et que le modèle constitutionnel, de par son caractère discriminant et sa capacité naturelle à intégrer plus de caractéristiques et d'information contextuelle, offre de meilleures performances
With the development of digital technologies, the valorization of our cultural heritage is becoming a major stake, which exhibits a lot of difficulties for information indexing and retrieval. Document image analysis can bring a solution, however traditionnal methods are not flexible enough to deal with the variability found in patrimonial documents. Our contribution relates to the implementation of a 2D Markov random field model and a 2D conditional random field model, which make it possible to make variability into account and to integrate contextual knowledge, while taking benefit from machine learning techniques. Experiments on handwritten drafts and manuscripts of the Renaissance, show that these models can provide interesting solutions. Furthermore, the conditional random field model provids better results, allowing to integrate more intrinsic and contextual features in a discriminative framework, using a classifier combination approach
APA, Harvard, Vancouver, ISO, and other styles
20

Hondt, Olivier. "Analyse spatiale de texture non stationnaire dans les images SAR." Rennes 1, 2006. http://www.theses.fr/2006REN1S007.

Full text
Abstract:
Ce travail porte sur l'analyse et la caractérisation de la texture spatiale non stationnaire dans les images SAR. La plupart des études considérant la texture dans les images SAR utilisent les hypothèses de stationnarité statistique et d'isotropie spatiale. Cependant, l'observation des images montre que des orientations spatiales privilégiées peuvent être présentes. De plus, la mesure à différentes positions de la fonction d'autocorrélation suggèrent l'emploi de modèles non stationnaires. On introduit ici un modèle paramétrique basé sur des noyaux gaussiens anisotropes pour les statistiques d'ordre deux des images d'intensité SAR. Ce modèle prend à la fois en compte le caractère non stationnaire ainsi que la présence d'anisotropie spatiale. Ensuite, différentes méthodes d'estimation relatives à l'orientation locale dans les images SAR sont proposées, puis l'une de ces méthodes est appliquée au filtrage du speckle.
APA, Harvard, Vancouver, ISO, and other styles
21

Zinck, Guillaume. "Reconstruction d'hypersurfaces de champs de normales sous contraintes : application à l'analyse stratigraphique des images sismiques." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14705/document.

Full text
Abstract:
Cette thèse traite de la reconstruction d'hypersurfaces au sein de champs de normales en dimension quelconque et trouve des applications dans l’analyse des empreintes digitales (lignes dermiques), des images satellites météorologiques (lieux de turbulence) et astrophysiques (bras de galaxies) ainsi que dans l’analyse stratigraphique des images sismiques (horizons). Les méthodes développées s’appuient sur la minimisation d’une équation aux dérivées partielles non linéaire reliant une hypersurface au pendage déduit d’un champ de normales. Elles prennent en compte des contraintes diverses telles que des points de passages, des frontières, des bornes et des discontinuités. La contribution principale de la thèse réside dans l’introduction d’un changement d’espace du pendage qui permet de reconstruire aussi bien des hypersurfaces exprimées sous des formes implicites dans les repères de définition des champs de normales que des horizons sismiques de manière rapide et interactive. Deux schémas de reconstruction d’horizons sismiques unidimensionnels présentant une discontinuité d’amplitude et de lieu inconnus sont également proposés
This thesis deals with the reconstruction of hypersurfaces from a finite-dimensional normal vector field. Application scopes can be found in the analysis of fingerprints (epidermal ridges), meteorological images (eddies and cyclones), astrophysical images (galaxy arms) and in the stratigraphic analysis of seismic images (horizons). The hypersurfaces are obtained by solving a non-linear partial derivative equation relied on the local dip deduced from a normal vector field. Several constraints such as boundaries, bounds, points belonging to the hypersurface or discontinuities can be considered.The major contribution of this thesis consists in a local dip transformation which allows to reconstruct implicit hypersurfaces as well as seismic horizons by a fast and interactive method. Two schemes dedicated to the reconstruction of discontinuous one-dimensional seismic horizons are also proposed when the discontinuity location and jump are unknown
APA, Harvard, Vancouver, ISO, and other styles
22

Chiang, Li-Hua. "La manipulation du temps dans les images : oscillation entre réel et virtuel." Paris 1, 2009. http://www.theses.fr/2009PA010568.

Full text
Abstract:
Cette recherche présente une réflexion sur le Temps, abordée selon deux manipulations: celle de la lumière et celle de la notion de Temps dans le domaine de l'art. Pour introduire la durée bergsonienne, mes travaux artistiques ont été pris ou exposés pendant un certain laps de temps. À travers une analyse d'images manipulées, nous supposons que l'image capturée construit une autre « Réalité» formant elle-même le plan de symétrie entre le Temps réel et virtuel. D'un autre côté, des installations relatives à la notion de Temps proposent d'aborder la signification de l'Horloge à la fois en la débarrassant de la norme du Temps, et en représentant le pouvoir du Temps. L'art multimédia permet à chacun de se créer un espace-temps virtuel, suivant une nouvelle annotation de temps, où l'image se balance entre le réel et le virtuel. En bref, toutes mes propres images racontent, dans une trajectoire figurative et avec des durées différentes, la mémoire cristallisée que me fait éprouver mon séjour en France.
APA, Harvard, Vancouver, ISO, and other styles
23

Mimouni, Zineb. "Étude de suspensions colloïdales soumises à l'action d'un champ électrique ou magnétique." Nice, 1990. http://www.theses.fr/1990NICE4432.

Full text
Abstract:
Cette thèse est consacrée à l'étude des fluides électrorhéologiques (F. E. R. ). Pour modéliser un F. E. R. , nous avons utilisé des suspensions de sphères de polystyrène, monodispersés, browniennes et dont la surface est chargée négativement. Nous avons procédé à une caractérisation complète de ces suspensions : leurs propriétés diélectriques, la taille moyenne des sphères et leur charge. Nous avons développé un logiciel de traitement et d'analyse d'images en temps réel, qui nous a permis d'étudier la dynamique de l'agrégation en chaines de sphères, qui apparaît avec l'application d'un champs électrique alternatif. Nous avons également étudié, par analyse d'images, la distribution de la taille des chaines en fonction de la fréquence du champ. Des expériences de diffusion de la lumière ont également été réalisées. Elles nous ont permis d'étudier la dynamique de la désagrégation lors de la suppression du champ externe. Ainsi nous avons mesuré le coefficient de diffusion dans la direction perpendiculaire au champ, au début de la désagrégation des alignements. Nous avons également obtenu, par diffusion de la lumière, des résultats quantitatifs sur le degré d'alignement des sphères dans une chaîne, en fonction de l'intensité et de la fréquence du champ appliqué. L’augmentation de la viscosité d'une suspension soumise à l'action d'un champ a été mesurée en utilisant une suspension de sphères de polystyrène contenant des inclusions de magnétite qu'on soumet à l'action d'un champ magnétique. La viscosité augmente de plusieurs ordres de grandeur et l'écoulement est du type Bingham
APA, Harvard, Vancouver, ISO, and other styles
24

Darbon, Jérôme. "Composants logiciels et algorithmes de minimisation exacte d'énergies dédiées au traitement des images /." Paris : École nationale supérieure des télécommunications, 2006. http://catalogue.bnf.fr/ark:/12148/cb40185908r.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Perrot, Olivier. "Étude théorique des propriétés statistiques de la lumière dans les dispositifs optiques à deux modes couples : génération d'états comprimés." Paris 11, 1986. http://www.theses.fr/1986PA112050.

Full text
Abstract:
Nous proposons dans cette thèse deux types de solution afin d’évaluer l’évolution des fluctuations sur les composantes du champ à deux modes couplés dans une cavité. Dans une première approche, nous intégrons tous les termes de la matrice densité du champ à deux modes, puis dans une deuxième approche, nous développerons sur ordinateur, à l’aide d’un programme utilisant le langage symbolique REDUCE, les séries de Taylor des observables, qui sont alors évaluées à l’aide des approximants de Padé quadratiques. De cette étude nous avons pu dégager les propriétés caractéristiques suivantes : quels que soient les champs en entrée, il existe une durée d’interaction optimale, qui permet d’obtenir une réduction optimale des fluctuations. Le dispositif est capable de comprimer des champs thermiques jusqu’à les rendre sub-quantiques. Dans tous les cas, la compression des fluctuations s’accentue avec la puissance des champs en entrée : le « squeezing » apparaît donc comme un effet quantique macroscopique
In this work we present two approaches in order to estimate the evolution of quantum fluctuations on the components of a field coupled with its second harmonic. In the first approach, the numerical calculation is performed by integrating all the components of the matrix-density of the two modes-field, while in the second one, we expand Taylor series of the observables, on a computer using the symbolic language REDUCE. Then, these series are estimate with quadratic Pade approximants. From this study, we take out the mains properties of this device: Whatever input fields, the maximum reduction of fluctuations is reached for one optimal time interaction. This device can squeeze thermal fields. In all the cases, the squeezing increases with the intensity of inpùt-fields. Squeezing appears as a quantum macroscopic effect
APA, Harvard, Vancouver, ISO, and other styles
26

Wang, Chang Cun. "Caractérisation quantitative par l'analyse des images en microscopie en champs proche des systèmes de charges et élastomères." Mulhouse, 2002. http://www.theses.fr/2002MULH0693.

Full text
Abstract:
Dans ce travail, nous avons essayé d'avancer la caractérisation de plusieurs aspects de systèmes d'élastomères à partir de l'analyse quantitative des images en microscopie en champ proche. Nous allons traiter et analyser les images en STM pour extraire des informations sur la rugosité, les résultats étant comparés à ceux obtenus par d'autres méthodes. Un objet de ce travail est d'observer la microdispersion par l'AFM et de la quantifier par l'analyse d'image. Différentes méthodes concernant la microdispersion seront présentées dans la thèse. Les images en mode "phase" ont été analysées pour comprendre l'influence des paramètres soit moléculaires des polymères, soit conditionnels du procédé. L'observation de la morphologie des mélanges peut contribuer partiellement à la compréhension de l'influence de plusieurs facteurs contrôlant la finesse de la dispersion. Dans cette étude, les résultats sont cohérents avec la prévision.
APA, Harvard, Vancouver, ISO, and other styles
27

Darbon, Jérôme. "Composants logiciels et algorithmes de minimisation exacte d'énergies dédiés au traitement des images." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001680.

Full text
Abstract:
Cette thèse traite principalement de l'optimisation exacte et rapide d'énergies utilisées pour résoudre des problèmes de traitement des images ou de vision par ordinateur. En fonction du type d'énergies considérées, différentes approches sont retenues. Le calcul de coupures minimales, vu comme technique d'optimisation, est la souche commune aux méthodes d'optimisation proposées dans ce manuscrit. Nous présentons tout d'abord un algorithme de minimisation exacte de la variation totale avec une attache aux données modélisée par une fonction convexe. L'idée de notre approche consiste à reformuler cette énergie avec des champs de Markov binaires associés à chaque ensemble de niveaux d'une image. Nous généralisons ensuite cette approche aux cas des énergies dites "nivellées". Une seconde généralisation, différente de la précédente, considère le cas où les termes de régularisation sont convexes. Nous présentons ensuite un algorithme original et rapide pour le cas des modèles dont les attaches aux données et les termes de régularisation sont des fonctions convexes. Le cas particulier de la variation totale avec une attache aux données de type $L^1$ est étudié en détail. Nous montrons en particulier que sa minimisation conduit à un filtre invariant par changement de contraste. Cette invariance est une propriété fondamentale des filtres morphologiques. Ce modèle est alors utilisé pour définir un filtre morphologique vectoriel auto-dual.
APA, Harvard, Vancouver, ISO, and other styles
28

Lu, Heqi. "Echantillonage d'importance des sources de lumières réalistes." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0001/document.

Full text
Abstract:
On peut atteindre des images réalistes par la simulation du transport lumineuse avec des méthodes de Monte-Carlo. La possibilité d’utiliser des sources de lumière réalistes pour synthétiser les images contribue grandement à leur réalisme physique. Parmi les modèles existants, ceux basés sur des cartes d’environnement ou des champs lumineuse sont attrayants en raison de leur capacité à capter fidèlement les effets de champs lointain et de champs proche, aussi bien que leur possibilité d’être acquis directement. Parce que ces sources lumineuses acquises ont des fréquences arbitraires et sont éventuellement de grande dimension (4D), leur utilisation pour un rendu réaliste conduit à des problèmes de performance.Dans ce manuscrit, je me concentre sur la façon d’équilibrer la précision de la représentation et de l’efficacité de la simulation. Mon travail repose sur la génération des échantillons de haute qualité à partir des sources de lumière par des estimateurs de Monte-Carlo non-biaisés. Dans ce manuscrit, nous présentons trois nouvelles méthodes.La première consiste à générer des échantillons de haute qualité de manière efficace à partir de cartes d’environnement dynamiques (i.e. qui changent au cours du temps). Nous y parvenons en adoptant une approche GPU qui génère des échantillons de lumière grâce à une approximation du facteur de forme et qui combine ces échantillons avec ceux issus de la BRDF pour chaque pixel d’une image. Notre méthode est précise et efficace. En effet, avec seulement 256 échantillons par pixel, nous obtenons des résultats de haute qualité en temps réel pour une résolution de 1024 × 768. La seconde est une stratégie d’échantillonnage adaptatif pour des sources représente comme un "light field". Nous générons des échantillons de haute qualité de manière efficace en limitant de manière conservative la zone d’échantillonnage sans réduire la précision. Avec une mise en oeuvre sur GPU et sans aucun calcul de visibilité, nous obtenons des résultats de haute qualité avec 200 échantillons pour chaque pixel, en temps réel et pour une résolution de 1024×768. Le rendu est encore être interactif, tant que la visibilité est calculée en utilisant notre nouvelle technique de carte d’ombre (shadow map). Nous proposons également une approche totalement non-biaisée en remplaçant le test de visibilité avec une approche CPU. Parce que l’échantillonnage d’importance à base de lumière n’est pas très efficace lorsque le matériau sous-jacent de la géométrie est spéculaire, nous introduisons une nouvelle technique d’équilibrage pour de l’échantillonnage multiple (Multiple Importance Sampling). Cela nous permet de combiner d’autres techniques d’échantillonnage avec le notre basé sur la lumière. En minimisant la variance selon une approximation de second ordre, nous sommes en mesure de trouver une bonne représentation entre les différentes techniques d’échantillonnage sans aucune connaissance préalable. Notre méthode est pertinence, puisque nous réduisons effectivement en moyenne la variance pour toutes nos scènes de test avec différentes sources de lumière, complexités de visibilité et de matériaux. Notre méthode est aussi efficace par le fait que le surcoût de notre approche «boîte noire» est constant et représente 1% du processus de rendu dans son ensemble
Realistic images can be rendered by simulating light transport with Monte Carlo techniques. The possibility to use realistic light sources for synthesizing images greatly contributes to their physical realism. Among existing models, the ones based on environment maps and light fields are attractive due to their ability to capture faithfully the far-field and near-field effects as well as their possibility of being acquired directly. Since acquired light sources have arbitrary frequencies and possibly high dimension (4D), using such light sources for realistic rendering leads to performance problems.In this thesis, we focus on how to balance the accuracy of the representation and the efficiency of the simulation. Our work relies on generating high quality samples from the input light sources for unbiased Monte Carlo estimation. In this thesis, we introduce three novel methods.The first one is to generate high quality samples efficiently from dynamic environment maps that are changing over time. We achieve this by introducing a GPU approach that generates light samples according to an approximation of the form factor and combines the samples from BRDF sampling for each pixel of a frame. Our method is accurate and efficient. Indeed, with only 256 samples per pixel, we achieve high quality results in real time at 1024 × 768 resolution. The second one is an adaptive sampling strategy for light field light sources (4D), we generate high quality samples efficiently by restricting conservatively the sampling area without reducing accuracy. With a GPU implementation and without any visibility computations, we achieve high quality results with 200 samples per pixel in real time at 1024 × 768 resolution. The performance is still interactive as long as the visibility is computed using our shadow map technique. We also provide a fully unbiased approach by replacing the visibility test with a offline CPU approach. Since light-based importance sampling is not very effective when the underlying material of the geometry is specular, we introduce a new balancing technique for Multiple Importance Sampling. This allows us to combine other sampling techniques with our light-based importance sampling. By minimizing the variance based on a second-order approximation, we are able to find good balancing between different sampling techniques without any prior knowledge. Our method is effective, since we actually reduce in average the variance for all of our test scenes with different light sources, visibility complexity, and materials. Our method is also efficient, by the fact that the overhead of our "black-box" approach is constant and represents 1% of the whole rendering process
APA, Harvard, Vancouver, ISO, and other styles
29

Nieto, Grégoire. "Light field remote vision." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM051/document.

Full text
Abstract:
Les champs de lumière ont attisé la curiosité durant ces dernières décennies. Capturés par une caméra plénoptique ou un ensemble de caméras, ils échantillonnent la fonction plénoptique qui informe sur la radiance de n'importe quel rayon lumineux traversant la scène observée. Les champs lumineux offrent de nombreuses applications en vision par ordinateur comme en infographie, de la reconstruction 3D à la segmentation, en passant par la synthèse de vue, l'inpainting ou encore le matting par exemple.Dans ce travail nous nous attelons au problème de reconstruction du champ de lumière dans le but de synthétiser une image, comme si elle avait été prise par une caméra plus proche du sujet de la scène que l'appareil de capture plénoptique. Notre approche consiste à formuler la reconstruction du champ lumineux comme un problème de rendu basé image (IBR). La plupart des algorithmes de rendu basé image s'appuient dans un premier temps sur une reconstruction 3D approximative de la scène, appelée proxy géométrique, afin d'établir des correspondances entre les points image des vues sources et ceux de la vue cible. Une nouvelle vue est générée par l'utilisation conjointe des images sources et du proxy géométrique, bien souvent par la projection des images sources sur le point de vue cible et leur fusion en intensité.Un simple mélange des couleurs des images sources ne garantit pas la cohérence de l'image synthétisée. Nous proposons donc une méthode de rendu direct multi-échelles basée sur les pyramides de laplaciens afin de fusionner les images sources à toutes les fréquences, prévenant ainsi l'apparition d'artefacts de rendu.Mais l'imperfection du proxy géométrique est aussi la cause d'artefacts de rendu, qui se traduisent par du bruit en haute fréquence dans l'image synthétisée. Nous introduisons une nouvelle méthode de rendu variationnelle avec des contraintes sur les gradients de l'image cible dans le but de mieux conditionner le système d'équation linéaire à résoudre et supprimer les artefacts de rendu dus au proxy.Certaines scènes posent de grandes difficultés de reconstruction du fait du caractère non-lambertien éventuel de certaines surfaces~; d'autre part même un bon proxy ne suffit pas, lorsque des réflexions, transparences et spécularités remettent en cause les règles de la parallaxe. Nous proposons méthode originale basée sur l'approximation locale de l'espace plénoptique à partir d'un échantillonnage épars afin de synthétiser n'importe quel point de vue sans avoir recours à la reconstruction explicite d'un proxy géométrique. Nous évaluons notre méthode à la fois qualitativement et quantitativement sur des scènes non-triviales contenant des matériaux non-lambertiens.Enfin nous ouvrons une discussion sur le problème du placement optimal de caméras contraintes pour le rendu basé image, et sur l'utilisation de nos algorithmes pour la vision d'objets dissimulés derrière des camouflages.Les différents algorithmes proposés sont illustrés par des résultats sur des jeux de données plénoptiques structurés (de type grilles de caméras) ou non-structurés
Light fields have gathered much interest during the past few years. Captured from a plenoptic camera or a camera array, they sample the plenoptic function that provides rich information about the radiance of any ray passing through the observed scene. They offer a pletora of computer vision and graphics applications: 3D reconstruction, segmentation, novel view synthesis, inpainting or matting for instance.Reconstructing the light field consists in recovering the missing rays given the captured samples. In this work we cope with the problem of reconstructing the light field in order to synthesize an image, as if it was taken by a camera closer to the scene than the input plenoptic device or set of cameras. Our approach is to formulate the light field reconstruction challenge as an image-based rendering (IBR) problem. Most of IBR algorithms first estimate the geometry of the scene, known as a geometric proxy, to make correspondences between the input views and the target view. A new image is generated by the joint use of both the input images and the geometric proxy, often projecting the input images on the target point of view and blending them in intensity.A naive color blending of the input images do not guaranty the coherence of the synthesized image. Therefore we propose a direct multi-scale approach based on Laplacian rendering to blend the source images at all the frequencies, thus preventing rendering artifacts.However, the imperfection of the geometric proxy is also a main cause of rendering artifacts, that are displayed as a high-frequency noise in the synthesized image. We introduce a novel variational rendering method with gradient constraints on the target image for a better-conditioned linear system to solve, removing the high-frequency noise due to the geometric proxy.Some scene reconstructions are very challenging because of the presence of non-Lambertian materials; moreover, even a perfect geometric proxy is not sufficient when reflections, transparencies and specularities question the rules of parallax. We propose an original method based on the local approximation of the sparse light field in the plenoptic space to generate a new viewpoint without the need for any explicit geometric proxy reconstruction. We evaluate our method both quantitatively and qualitatively on non-trivial scenes that contain non-Lambertian surfaces.Lastly we discuss the question of the optimal placement of constrained cameras for IBR, and the use of our algorithms to recover objects that are hidden behind a camouflage.The proposed algorithms are illustrated by results on both structured (camera arrays) and unstructured plenoptic datasets
APA, Harvard, Vancouver, ISO, and other styles
30

Darbon, Jérôme. "Composants logiciels et algorithmes de minimisation exacte d'énergies dédiées au traitement des images." Paris, ENST, 2005. http://www.theses.fr/2005ENST0050.

Full text
Abstract:
Cette thèse traite principalement de l'optimisation exacte et rapide d'énergies utilisées pour résoudre des problèmes de traitement des images ou de vision par ordinateur. En fonction du type d'énergies considérées, différentes approches sont retenues. Le calcul de coupures minimales, vu comme technique d'optimisation, est la souche commune aux méthodes d'optimisation proposées dans ce manuscrit. Nous présentons tout d'abord un algorithme de minimisation exacte de la variation totale avec une attache aux données modélisée par unefonction convexe. L'idée de notre approche consiste à reformuler cette énergie avec des champs de Markov binaires associés à chaque ensemble de niveaux d'une image. Nous généralisons ensuite cette approche aux cas des énergies dites "nivellées". Une seconde généralisation, différente de la précédente, considère le cas où les termes de régularisation sont convexes. Nous présentons ensuite un algorithme original et rapide pour le cas des modèles dont les attaches aux données et les termes de régularisation sont des fonctions convexes. Le cas particulier de la variation totale avec une attache aux données de type L^1 est étudié en détail. Nous montrons en particulier que sa minimisation conduit à un filtre invariant par changement de contraste. Cette invariance est une propriété fondamentale des filtres morphologiques. Ce modèle est alors utilisé pour définir un filtre morphologique vectoriel auto-dual
Résumé anglais :This thesis mainly concerns itself with fast and exact optimization of energies used in many image processing and computer vision problems. Several approaches are considered for different classes of energies. Minimum cuts are the common part of the optimization methods proposed in this thesis. First, we present an algorithm which computes a global minimizer for the Total Variation minimization problem with convex data fidelity terms. Our approach consists in reformulating this energy as binary Markov random fields associated with each level sets of an image. Then we generalize this approach to the case of "levelable" energies. A second generalization, different from the first one, deals with the case where priors are convex functions. Then, we present an efficient minimization algorithm for energies where both data fidelities and priors are convex functions. The special case of the Total Variation minimization with L^1 data fidelity is studied in detail. We show that its minimization yields a filter which is invariant with respect to any change of contrast. This invariance is the main property of morphological filters. This model is used to propose a morphological and auto-dual filter
APA, Harvard, Vancouver, ISO, and other styles
31

Donias, Marc. "Caractérisation de champs d'orientation par analyse en composantes principales et estimation de la courbure : application aux images sismiques." Bordeaux 1, 1999. http://www.theses.fr/1999BOR10505.

Full text
Abstract:
Ce memoire traite de l'analyse de textures dites longiformes, c'est-a-dire composees de structures fines orientees, qui presentent un caractere directionnel tres marque. Nos objectifs sont multiples et concernent l'estimation de l'orientation, de l'homogeneite et de la courbure des elements composant de telles textures. L'approche retenue pour une estimation locale de l'orientation consiste en l'utilisation de filtres estimant le gradient. Les champs d'orientation ainsi obtenus sont regularises par une technique statistique nommee analyse en composantes principales. Cette methode d'analyse de donnees multidimensionnelles fournit un champ d'orientation regularise, a une echelle d'observation donnee, ainsi que des mesures de coherence ou de dispersion associees. Nous explicitons plus en detail le cas bidimensionnel, en presentant notamment des liens avec des techniques existantes, et nous etendons les resultats obtenus au cas tridimensionnel. Assimilable a un champ normal, le champ d'orientation peut etre mis a profit pour evaluer la courbure des structures composant les textures longiformes. Nous presentons deux approches differentes oeuvrant dans ce sens et qui s'appuient toutes deux sur l'hypothese que les structures traitees sont assimilables a des lignes de niveau. Une part importante du memoire est consacree a l'application aux images sismiques : l'orientation moyenne est principalement utilisee pour la synthese d'horizons, la mise en evidence de lieux de vergence, la detection de fortes courbures et de structures de compaction differentielle tandis que les mesures de coherence permettent de caracteriser des structures chenalisantes et de localiser des failles sismiques.
APA, Harvard, Vancouver, ISO, and other styles
32

Moulard, Raphaël. "DÉVELOPPEMENT ET MISE EN OEUVRE D'UNE MÉTHODE DE MESURE DE CHAMPS DE DÉFORMATION À L'ÉCHELLE MICROMÉTRIQUE." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2007. http://tel.archives-ouvertes.fr/tel-00351685.

Full text
Abstract:
Ce travail de thèse présente la mise au point d'une méthodologie de mesure de champs de déformations planes à l'échelle micrométrique. La mesure cinématique est faite par une méthode de grille qui analyse les déformations d'un réseau périodique attaché à la surface à étudier. Les grilles ont été réalisées par photolithographie interférentielle directe. Pour l'observation et la numérisation des réseaux, le choix s'est porté sur la microscopie interférométrique en lumière blanche qui donne accès à la topographie 3D de la surface d'intérêt. Une étude de bruit à permis d'optimiser la réalisation des réseaux pour l'application mécanique auxquels ils étaient destinés. Par ailleurs, l'application de déplacements de corps rigide a permis de mettre en évidence un problème de corrélation spatiale de ce bruit qui ne pouvait être ignoré. Ainsi, et en apportant un soin particulier sur la réalisation expérimentale des essais mécaniques, la résolution en déformation obtenue est de l'ordre de 1 à 2×10-3 pour une résolution spatiale d'environ 20 µm. Une première application concernant l'étude des déformations élasto-plastiques d'un acier ferritique a permis de valider la présente méthode, de l'étendre à l'étude de régions d'intérêt de plus grandes tailles et d'en souligner les points forts mais aussi les limites.
APA, Harvard, Vancouver, ISO, and other styles
33

Vallée, Philippe. "Etude de l'effet de champs électromagnétiques basse fréquence sur les propriétés physico-chimiques de l'eau." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00009153.

Full text
Abstract:
L'hypothèse directrice de ce travail est la possibilité d'une action des champs électromagnétiques basse fréquence sur les propriétés physico-chimiques de l'eau et via son activité sur des systèmes biologiques. Cette hypothèse a été induite par le grand nombre de publications sur ces sujets parues au cours de ces dix dernières années, mais aussi par la difficulté d'en tirer des conclusions du fait du caractère contradictoire de certains résultats ou de conditions expérimentales mal explicitées et parfois mal contrôlées. Dans la première partie de notre étude, des expériences de diffusion Raman et de photoluminescence réalisées sur des échantillons d'eau pure nous ont permis d'identifier la présence de polluants chimiques provenant des récipients servant au stockage des échantillons. Sous le contrôle de ces techniques extrêmement sensibles, nous avons mis au point un protocole de préparation des échantillons rigoureux permettant de limiter ces artéfacts. Les efforts ont notamment porté sur : (i) la purification de l'eau par osmose inverse et par une étape finale appelée « polissage », (ii) le contrôle de l'environnement atmosphérique (boîte à gants avec atmosphère contrôlée), électromagnétique et acoustique (boîtes de traitement et de stockage du type cage de Faraday avec revêtement de mu-métal et isolation acoustique), (iii) l'inertie chimique des récipients (utilisation exclusive de silice fondue de haute pureté de qualité optique). La seconde partie du travail a porté sur l'étude de l'effet des champs électromagnétiques sur les échantillons d'eau préparés en suivant le protocole caractérisé dans la première partie. Nous avons choisi des champs électromagnétiques sinusoïdaux de basse fréquence (< 1 kHz), délivrés en train d'ondes de quelques secondes et appliqués pendant six heures avec des intensités faibles (champ magnétique d'environ 1 mT et champs électrique d'environ 4 mV/m). Parmi toutes les expériences de caractérisation réalisées, seules celles de diffusion élastique de la lumière et de photoluminescence ont permis d'observer des effets notables à savoir une baisse importante, de l'ordre de 30%, pour l'intensité de diffusion et d'environ 70% pour l'intensité de photoluminescence après exposition au champ électromagnétique. Des expériences complémentaires de diffusion dynamique de la lumière et de dégazage des échantillons ont permis de conclure que l'action du champ électromagnétique avait porté principalement sur les bulles de gaz présentes dans les échantillons d'eau, entraînant notamment une forte baisse d'une population de nanobulles d'environ 300 nm de diamètre. L'ensemble de ces résultats suggère que les champs électromagnétiques basse fréquence pulsés agiraient sur l'interface gaz/eau, principalement en perturbant la double-couche ionique qui stabilise les nanobubbles de gaz dans l'eau. La photoluminescence des échantillons résulterait de l'excitation de ces composés ioniques hydratés concentrés autour des bulles de gaz.
APA, Harvard, Vancouver, ISO, and other styles
34

Moulart, Raphaël. "Développement et mise en oeuvre d'une méthode de mesure de champs de déformation à l'échelle micrométrique." Phd thesis, Paris, ENSAM, 2007. http://pastel.archives-ouvertes.fr/pastel-00003212.

Full text
Abstract:
Ce travail de thèse présente la mise au point d'une méthodologie de mesure de champs de déformations planes à l'échelle micrométrique. La mesure cinématique est faite par une méthode de grille qui analyse les déformations d'un réseau périodique attaché à la surface à étudier. Les grilles ont été réalisées par photolithographie interférentielle directe. Pour l'observation et la numérisation des réseaux, le choix s'est porté sur la microscopie interférométrique en lumière blanche qui donne accès à la topographie 3D de la surface d'intérêt. Une étude de bruit à permis d'optimiser la réalisation des réseaux pour l'application mécanique auxquels ils étaient destinés. Par ailleurs, l'application de déplacements de corps rigide a permis de mettre en évidence un problème de corrélation spatiale de ce bruit qui ne pouvait être ignoré. Ainsi, et en apportant un soin particulier sur la réalisation expérimentale des essais mécaniques, la résolution en déformation obtenue est de l'ordre de 1 à 2×10−3 pour une résolution spatiale d'environ 20 μm. Une première application concernant l'étude des déformations élasto-plastiques d'un acier ferritique a permis de valider la présente méthode, de l'étendre à l'étude de régions d'intérêt de plus grandes tailles et d'en souligner les points forts mais aussi les limites.
APA, Harvard, Vancouver, ISO, and other styles
35

Bénière, Arnaud. "Acquisition et extraction d'information des images polarimétriques actives." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00483072.

Full text
Abstract:
L'imagerie d'OSC ("Orthogonal State Contrast") est un mode d'imagerie polarimé- trique active qui consiste à illuminer la scène avec une lumière polarisée et à analyser le signal rétro-diffusé dans deux états de polarisation orthogonaux. Elle permet de mettre en évidence des contrastes qui ne sont pas présents dans les images d'intensité classiques. Les applications sont très nombreuses en télédétection, dans le domaine biomédical ou pour la vision à travers les milieux diffusants. L'objectif de cette thèse était de concevoir un instrument et de caractériser ses capacités en terme d'acquisition et de traitement de l'information. Nous avons réalisé et validé un système d'acquisition simple et robuste permettant de faire l'image simultanée des deux états de polarisation. Cette architecture permet d'atteindre des limites fondamentales fixées par le bruit de détecteur, le bruit de photons ou la non-uniformité spatiale et temporelle de l'illumination. Nous avons montré expérimentalement son apport pour l'imagerie de cibles mobiles ou à travers un milieu turbulent. Pour évaluer les capacités de ce mode d'imagerie, nous avons déterminé les algorithmes d'estimation et caractérisé leurs précisions en fonction du type de bruit prédominant grâce à la borne de Cramer-Rao. Dans un deuxième temps, nous avons étudié les performances de détection de cible en fonction de la non-uniformité de l'illumination. Enfin, d'une manière plus générale, nous nous sommes intéressés à la maximisation du contraste dans une image polarimétrique scalaire. Nous avons proposé une méthode d'optimisation conjointe des états de polarisation d'illumination et d'analyse qui présente des perspectives prometteuse pour l'amélioration des imageurs de Mueller.
APA, Harvard, Vancouver, ISO, and other styles
36

Dumoulin, Guy. "Effets de la géométrie de surface de champs agricole sur des images radar aéroportées en bande X et C." Mémoire, Université de Sherbrooke, 1987. http://hdl.handle.net/11143/11137.

Full text
Abstract:
Résumé : Les variations du signal radar en bandes X et C (SAR-580) de différentes surfaces agricoles sont évaluées en fonction de l'angle d'incidence et de l'orientation des rangs de culture. Le secteur d'étude a été survolé à deux reprises, selon un trajet aller et retour, pour permettre une étude sous deux visées différentes. L'application de modèles statistiques de régression linéaire, multiple et polynomiale a démontré que l'angle d'incidence et l'angle azimutal contribuent de façon significative sur les valeurs relatives de rétrodiffusion. Les meilleurs résultats, basés sur la valeur du coefficient de détermination (R=2), sont obtenus par application de modèles polynomiaux du second et du troisième degré.||Abstract : Variations in the radar signal in X and C bands (SMR-580) have been evaluated as a function of the incidence angle and the azimuth of row crops.. Two parallel +light lines with opposing look directions moere recorded over the study area. Using linear, multiple and polynomial regression models, we have demonstrated that the azimuth angle and the incidence angle contrebute 30 to 50 percent of the variance in the radar data. The best models were found using second and third degree regressions.
APA, Harvard, Vancouver, ISO, and other styles
37

Jarige, Benoit. "La fiscalité internationale des sociétés de personnes : étude critique des images fiscales à la lumière des droits britannique et américain." Electronic Thesis or Diss., Bordeaux, 2022. http://www.theses.fr/2022BORD0099.

Full text
Abstract:
La transparence, la semi-transparence, la translucidité ou encore la personnalité fiscale sont autant d’images fiscales formant le paradigme français de la fiscalité internationale des sociétés de personnes, en ce sens que ces images sont mobilisées pour poser et répondre aux problématiques relatives à l’imposition française du revenu réalisé sous la forme d’une société de personnes en situation d’extranéité. Par ce recours aux images fiscales, la conception française de la fiscalité internationale des sociétés de personnes distingue les sociétés de personnes de droit français de celles de droit étranger. D’une part, les sociétés de personnes de droit français, réputées semi-transparentes et disposant d’une personnalité fiscale distincte de leurs associés, sont considérées comme les sujets d’une imposition pourtant assumée par leurs associés. Sur ce fondement, ces sociétés sont qualifiées de résident au sens des conventions visant à éliminer les doubles impositions. Les règles conventionnelles de territorialité sont alors appliquées au niveau de la société et non à celui de leurs associés. D’autre part, le droit fiscal français accepte de recevoir la transparence fiscale des sociétés de personnes étrangère pour appliquer les conventions fiscales à leurs associés. Il en résulte une conception française de la fiscalité internationale des sociétés de personnes difficilement compréhensible, non seulement au regard de celle pratiquée par les droits étrangers, mais également au regard du droit interne. En se détachant du recours constant aux images fiscales pour se concentrer sur une étude des textes français, britannique et américain, la conception française de la fiscalité internationale des sociétés de personnes peut être écartée. Par cette étude critique des images fiscales, l’altérité véhiculée par les images fiscales entre les sociétés de personnes de droit français et les partnerships de droits anglais, écossais et américain peut être dépassée au profit d’une unité (Partie 1). Celle-ci renverse les fondements de la conception française de la fiscalité internationale des sociétés de personnes et offre alors la perspective de son renouvellement (Partie 2)
Transparency, semi-transparency, translucency or fiscal personality are tax images used as a paradigm in the French conception of partnerships in international tax law, in that those images are used to think and resolve the issues raised by the taxation, in France, of international partnerships. Based on those images, the French conception of international taxation of partnership distinguishes between local partnerships and foreign partnerships. On the one hand, local partnerships are said to be semi-transparent or translucent and to have a fiscal personality distinct from their partners. Thusly, local partnerships are construed as the subject of a tax that is yet paid by the partners. Consequently, local partnerships are qualified as resident for the purpose of the bilateral conventions and the foreign partners cannot claim the application of the treaty. On the other hand, the recognition of the transparency of foreign partnerships is accepted in French tax law so the partners may claim the stipulations of the bilateral convention. This conception of international taxation of partnerships, founded on a dual approach of partnerships, is isolated from the taxation known in others countries and lacks coherence in the view of the French tax law. With a critical study of tax images in the light of the British law and the American law, this conception may be challenged. The comparison between French partnerships and British and American partnerships permits to overcome the otherness suggested by the resort of tax images, and to demonstrate instead the unity among those entities (Part 1). Once it has been ascertained, this unity challenges the foundation of the French conception of international taxation of partnership and allows the prospect of its renewal (Part 2)
APA, Harvard, Vancouver, ISO, and other styles
38

Pons, Isabelle. "Méthodes de segmentation bayésienne appliquées aux images SAR : théorie et mise en oeuvre." Nice, 1994. http://www.theses.fr/1994NICE4714.

Full text
Abstract:
Les images obtenues par un SAR (Synthetic Aperture Radar) sont très différentes des données optiques couramment utilisées en télédétection. Elles sont bruitées par le speckle qui donne un aspect poivre et sel à l'image et complique son exploitation. La recherche d'une méthode de segmentation adaptée aux images SAR nous a conduit à envisager une approche bayésienne. La segmentation bayésienne repose sur une modélisation statistique de l'image au niveau de la distribution du signal ainsi qu'une modélisation de l'image des régions. La modélisation de l'image à segmenter permet donc de considérer les statistiques liées à l'image et prendre en compte la grande variabilité spatiale due au speckle. La théorie markovienne associée à la modélisation de l'image des régions introduit un modèle de dépendance entre pixels voisins et permet d'orienter la classification vers une recherche de régions. Nous avons tout d'abord exposé en détail les hypothèses liées à ces concepts (distribution du signal, segmentation bayésienne, champ de Markov) et nous avons présenté la théorie et les algorithmes associes de façon unifiée. La complexité de réalisation nous a conduit à proposer, dans un objectif opérationnel sur la totalité d'une image (3000*3000), l'introduction d'une phase d'apprentissage. Différentes options pour la modélisation de l'image ont été retenues. Ces algorithmes ont ensuite été appliqués sur des images sar différentes : une image SAR aéroportée sur le Jura et deux images ERS-1 sur la Guinée pour lesquelles nous disposions des données terrains. Les résultats obtenus ont été comparés par rapport à une réalité terrain et analyses. Globalement, le gain des classifications obtenues par nos algorithmes, par rapport à une classification pixel par pixel, est significatif. Ces bons résultats montrent l'intérêt de ce type d'approche pour obtenir une classification (pas de filtrage préalable, intégration des statistiques, approche par région) et nous avons établi, parmi, parmi les diverses options explorées, un algorithme efficace
APA, Harvard, Vancouver, ISO, and other styles
39

Buraga-Lefebvre, Cristina. "Transformée en ondelettes appliquée aux enregistrements holographiques : restitution et caractérisation de champs de particules." Rouen, 2000. http://www.theses.fr/2000ROUES060.

Full text
Abstract:
La microholographie constitue un moyen efficace pour les mesures de taille, position et vitesse des particules qui matérialisent les écoulements. Cependant, cette technique comporte des inconvénients dus à la lourdeur du procédé de développement et à la difficulté de réaliser une mise au point sur chaque image restituée. De plus, dans la configuration de Gabor (la plus employée du fait de sa simplicité), la grande profondeur de champ empêche une détermination précise de la position axiale. L'objectif de cette étude est de développer un outil qui permet de reconstruire séquentiellement tout le volume enregistre sans utiliser un procédé de mise au point mécanique. En effet, les images de particules peuvent être calculées en décomposant les figures de diffraction sur une base d'ondelettes adaptée. La validation expérimentale est réalisée au moyen de disques opaques calibres dont la figure de diffraction est enregistrée sur un support quadratique. Nous montrons que la position 3D peut être déterminée avec une bonne précision sur la coordonnée axiale. L'exploitation numérique des hologrammes réalisés au laboratoire conduit à des images restituées avec un bon contraste. En outre, nous avons testé les possibilités offertes par notre méthode pour l'estimation du diamètre des particules. Afin d'explorer des volumes comportant plusieurs particules, la décomposition en ondelettes est appliquée aux figures de diffractions produites par un spray. Les particules peuvent être détectées séparément, même lorsqu'elles sont situées dans des plans voisins. Les images restituées sont de bonne qualité, même dans des conditions de fort ensemencement. Cette propriété nous a permis d'expérimenter une nouvelle technique de vélocimétrie dans différents plans transversaux. Pour accélérer le traitement, nous avons mis en œuvre un corrélateur optique à cristaux liquides permettant de réaliser la transformée en ondelettes de manière optique.
APA, Harvard, Vancouver, ISO, and other styles
40

Koulouris, Véronique. "Ombre et lumière dans la ville : le potentiel de l'image numérique pour l'exploration et l'analyse des ambiances lumineuses nocturnes." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ62072.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Bon, Pierre. "Imagerie microscopique de champs électromagnétiques par interférométrie à décalage quadri-latéral. Applications à la biologie." Thesis, Aix-Marseille 3, 2011. http://www.theses.fr/2011AIX30036.

Full text
Abstract:
Cette thèse a pour but d'étudier l'utilisation d'un analyseur de front d'onde basé sur l'interférométrie à décalage quadri-latéral pour l'imagerie microscopique en transmission. Cette technique d'interférométrie, développée initialement par la société Phasics (Palaiseau) pour les marchés de la métrologie optique et de la caractérisation de faisceaux laser essentiellement, peut aussi permettre d'obtenir la cartographie d'un champ électromagnétique complexe par mesure de front d'onde. En l'utilisant sur un microscope en condition d'imagerie, nous avons obtenu des images de l'intensité et de la différence de chemin optique introduite par un échantillon semi-transparent, définissant ainsi une nouvelle technique de contraste de phase quantitatif. Il s'agit d'un travail codirigé entre l'Institut Fresnel et l'entreprise Phasics (convention CIFRE), mené en collaboration avec le Centre d'Immunologie de Marseille Luminy. Dans cette thèse, nous discutons dans un premier temps de l'utilisation de l'analyseur en tant que détecteur placé dans le plan image d'un microscope optique classique, puis nous considérons deux modèles pour la formation des images de différence de chemin optique. Le premier modèle, dit projectif dans l'espace objet, suppose une mesure directe par l'analyseur de la différence de chemin optique locale introduite par l'échantillon. Nous montrons que cette hypothèse est valable pour deux applications particulières : la détermination de la quantité de matière sèche au sein d'un échantillon biologique, et la cartographie de la distribution de température induite par échauffement de particules d'or dans le plan objet du microscope. Le deuxième modèle prend en compte les effets de diffraction simple par l'échantillon et de filtrage par le système d'imagerie, en considérant l'angle sous lequel l'échantillon est illuminé
The aim of this thesis is the use of a quadriwave lateral shearing interferometer for transmission microscopic imaging. First developped for optical metrology and laser beam caracterisation by the Phasics company (Palaiseau), this interferometric technique gives complexe electromagnetic field cartography by wavefront sensing. Using a microscope in imaging conditions, we obtained intensity and optical path difference images introduced by a semi-transparent sample. Thereby, we defined a new quantitative phase contrast technique.This work is co-directed by the Fresnel Institute and the Phasics company (CIFRE convention), in collaboration with the Centre Immunologique de Marseille Luminy. In this thesis, first we discuss the wavefront sensor use as a sensor plugged on the classical optical microscope image plane ; then we consider two models for optical path difference image formation. The first one, named object space projection, supposes a direct measurement of the optical path difference introduced by a sample. We show that this hypothesis is valid for two particular applications : dry matter determination within a biological sample, and temperature distribution induced by gold nano-particule heating. Thesecond model takes into account the simple sample diffraction and the optical device filtering depending on the illumination angle. This second approach allows us to build a model for intensity and optical path difference image formation for any planewave illumination. So we studied the image formation from a spatially partial incoherent illumination to a complete incoherent illumination. We made electromagnetic field measurements with the wavefront sensor in this last case. Then we discuss semi-transparent tomographic reconstruction by measurements in different imaging planes.One chapter is dedicated to quantitative phase imaging in biology, in particular with mitotic index determination within a cell population
APA, Harvard, Vancouver, ISO, and other styles
42

Bakro, Abdelkarim. "Couplage d'un microscope à effet tunnel photonique à un microscope à force atomique." Montpellier 2, 1998. http://www.theses.fr/1998MON20077.

Full text
Abstract:
La miniaturisation croissante des composants electroniques necessite le developpement de nouvelles techniques de caracterisation operationnelles en dessous du micrometre. Cette these est destinee au couplage d'un microscope a effet tunnel photonique pstm a un microscope a force atomique afm. Apres avoir presente les techniques du champ proche et discute les notions de resolution et de contraste, nous decrivons les modifications apportees au microscope afm (injection de lumiere, detection du signal tunnel) pour qu'il fonctionne simultanement en mode pstm. Des images synchrones afm/pstm pour plusieurs echantillons (defauts reveles sur gaas, reseau grave inp, plots d'or deposes sur inp, guide optique, diode laser) sont presentees et interpretees. Un algorithme de calcul du champ proche optique par la methode etablie du dyadique de green est decrit et implemente en langage c. Les resultats des calculs montrent l'effet de depolarisation revele par d'autres auteurs et aident a interpreter certaines images pstm obtenues.
APA, Harvard, Vancouver, ISO, and other styles
43

El, Amari Saad. "Développement et caractérisation de générateur optoélectronique d’impulsions de champ électrique nanoseconde et subnanoseconde de forte intensité : application au domaine biomédical." Limoges, 2011. https://aurore.unilim.fr/theses/nxfile/default/e7ead5c7-d917-4027-934b-5cb7b4ff2222/blobholder:0/2011LIMO4052.pdf.

Full text
Abstract:
Les travaux présentés dans cette thèse concernent le développement et la caractérisation de sources optoélectroniques dédiées à la génération d’impulsions ultracourtes possédant une forte intensité. Ces systèmes sont destinés en premier lieu à des applications d’électroporation cellulaire. En s’appuyant sur des outils numériques et expérimentaux, les générateurs développés ont permis de générer des impulsions d’une durée de la centaine de picosecondes à quelques dizaines de nanosecondes avec une amplitude supérieure à la dizaine de kV. Afin de pouvoir réaliser des études complètes sur l’effet des champs électromagnétiques sur les cellules biologiques, ces systèmes compactes sont capables d’offrir une grande flexibilité au niveau du nombre, la forme, l’amplitude, la durée et la fréquence de répétition des impulsions générées
This PhD dissertation presents the development and characterization of picosecond and nanosecond pulse generator dedicated to bioelectrics applications. Based on numerical characterization and experimental tools, generators can produce ultra-short pulses of hundreds of picoseconds to tens of nanoseconds with an intensity greater than the ten kV. In order to achieve comprehensive studies of the effect of electromagnetic fields on biological cells, generators developed are able to offer great flexibility in the number, shape, repetition rate, amplitude and duration of pulses generated
APA, Harvard, Vancouver, ISO, and other styles
44

Shtuka, Arben. "Simulation, traitement et visualisation des images numériques : apport du codage par indicatrice en géostatistique." Vandoeuvre-les-Nancy, INPL, 1994. http://www.theses.fr/1994INPL139N.

Full text
Abstract:
La thèse se compose de trois parties. La première partie est consacrée à une nouvelle méthode d'interpolation des champs vectoriels utilisant les moindres carrés a l'aide des polynômes orthogonaux. Cette méthode a été appliquée à la modélisation des trajectoires de forage de deux gisements en Albanie. La seconde partie concerne les méthodes géostatistiques d'estimation à l'aide des indicatrices. Les méthodes conventionnelles d'interpolation (krigeage des indicatrices) sont difficilement utilisables et nécessitent une connaissance préalable des fonctions de covariances pour chaque valeur de coupure. Étant donné ces difficultés, deux stratégies ont été suivies. La première consiste à construire un modèle général des fonctions de covariances des indicatrices en s'appuyant sur les propriétés spectrales. La seconde stratégie consiste a utiliser une autre méthode d'interpolation des indicatrices à l'aide de DSI(discrete smooth interpolation). Cette méthode a beaucoup d'avantages par rapport aux méthodes classiques: rapidité, simplicité et surtout respect des contraintes nécessaires pour que les indicatrices interpolées soient une estimation de la répartition locale. La dernière partie est consacrée aux traitements et a l'analyse d'images numériques. L'utilisation de plus en plus fréquente d'images numériques en géosciences a conduit au développement d'un logiciel spécifique IMEGEO (images géologiques). Le logiciel a été conçu selon les principes suivants: portabilité, interactivité, modularité et configuration systeme minimal. Dans sa version initiale, IMGEO était un outil de visualisation des images en deux dimensions, actuellement il représente un logiciel plus complet contenant des modules d'analyse
APA, Harvard, Vancouver, ISO, and other styles
45

Cherifi, Dalila. "Utilisation d'un modèle symbolique pour l'interprétation d'images Radar à Ouverture Synthétique." Paris, ENST, 2005. http://www.theses.fr/2005ENST0036.

Full text
Abstract:
Au fil des années, l'imagerie radar à synthèse d'ouverture (RSO ) s'affirme comme une modalité fiable et pertinente en télédétection. En effet, la détection du réseau routier sur ce type d'images par des opérateurs de bas niveau tels que les détecteurs de lignes nous donne un taux de fausses détection élevé. Ceci est dû notamment à la présence du speckle. D'où la nécessité de faire suivre l'étape de bas-niveau par une étape de plus haut niveau, dans laquelle nous injectons des informations structurelles sur la forme des routes par l'intermédiaire d'un modèle symbolique. A cet effet, nous proposons dans cette thèse de traiter deux niveaux de modèles symboliques, par complexité croissante. Dans un premier temps nous traitons un modèle assez complet issu de données cartographiques, avec des informations spatiales relativement précises. Dans un second temps nous utilisons un modèle grossier correspondant à un schéma "manuel" représentant les objets à extraire avec des indications approximatives sur leurs formes et leurs positions relatives. Ainsi, nous proposons dans cette thèse deux approches pour intégrer au mieux cette information exogène. En effet, dans une première partie, nous proposons une méthode markovienne qui permet par l'intermédiaire du terme a priori d'introduire des connaissances sur les objets recherchés. Dans une second partie, nous proposons une méthode de recherche de chemin optimal basée sur la programmation dynamique. Enfin, nous présentons notre méthode d'extraction de réseau routier sur les images radar (RSO ) en utilisant des données symboliques ainsi que quelques applications de notre travail
Synthetic Aperture Radar (SAR) instruments are active microwave sensors that operate independently of time of day and weather conditions. SAR can achieve high resolution from long range and provide information about the physical structure and the electrical properties of remotely sensed objects. There has been a growing interest in SAR for automatic target recognition. We are interested in this thesis by road detection in spaceborne SAR (Synthetic Aperture Radar images. Several approaches have been proposed in the literature. They generally consist of two steps: in the first step they use a local operator like edge and line detectors and then they apply a global criterion which incorporates additional knowledge about the structure of the objects to be detected. The aim of this thesis is the detection of road on SAR images starting from a graphical sketch of road defined by a user which is considered as a model of road. To do this we propose to compare two methods. The first one combines both local and global criteria based on Markov Field(MRF). It is based on a previously published methods for road detection in SAR images. The second method uses a dynamic programming, it defines a cost, which depends on local information, and performs a summation minimization process in a graph. The results obtained with the two approaches applied to different SAR images are presented and evaluated with an objective criterion. Finnally, we applied our method based of dynamic programming to extract road network on the different SAR images and we present some applications of our work
APA, Harvard, Vancouver, ISO, and other styles
46

Boualia, Hassan. "Etude numérique et expérimentale des champs dynamiques et scalaires dans un écoulement turbulent fourni par un brûleur coaxial. Effet de la stratification." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR129/document.

Full text
Abstract:
De nos jours, l’énergie délivrée par la combustion dépasse 80% de l‟énergie totale dans le monde, et ce pourcentage restera probablement élevé le long des 100 prochaines années. La plupart des systèmes réactifs qui génèrent la combustion turbulente sont utilisés dans la fabrication, le transport et l‟industrie pour la génération des puissances. Comme résultat, l‟émission des polluants est parmi les problèmes majeurs qui sont devenus des facteurs critiques dans notre société. Dans ce cadre, une étude détaillée des systèmes réactifs est alors nécessaire pour la conception de systèmes de haute performance qui s‟adaptent aux technologies modernes. L'optimisation des performances de ces systèmes énergétiques permet d‟une part d‟économiser l'énergie et d‟autre part de réduire la pollution. Les jets turbulents sont impliqués dans l'efficacité de ces divers systèmes. Dans le cas isotherme, la complexité des écoulements turbulents résulte principalement de la coexistence des structures de tailles très différentes et de l‟interaction non linéaire entre ces structures. Les plus grandes structures dépendent fortement de la géométrie du domaine considéré, elles sont donc anisotropes. De plus, elles ont une grande durée de vie et elles sont responsables du transport de la quasi-totalité de l'énergie. Les plus petites structures, quant à elles, ont souvent un caractère beaucoup plus "universel" (dû à leur comportement relativement isotrope) et sont à l'origine du processus de dissipation visqueuse. Prédire numériquement la dispersion et le mélange d‟un scalaire non réactif dans un écoulement turbulent est considéré comme un problème primordial et reste toujours actuel. Plusieurs recherches sont attachés à ce sujet afin d‟approfondir de plus à la connaissance de différents phénomènes pour pouvoir les mieux prédire. La prédiction numérique du mélange turbulent existant dans plusieurs applications industrielles et environnementales, a un important intérêt en génie chimique. Il est nécessaire donc de bien comprendre la majorité de propriétés du mélange et de l‟écoulement. En combustion, la complication du comportement des jets résulte de l‟interaction entre le dégagement de la chaleur, les processus de mélange, l'entraînement et la recirculation des gaz. Pour bien comprendre la complexité de ce phénomène, il est nécessaire de connaître parfaitement l'évolution dynamique et scalaire des jets turbulents isothermes en présence d'importantes différences de densité, comme elles peuvent lors de la combustion. Cette optimisation passe par la compréhension de l'effet de la variation des conditions d'entrée sur les processus de mélange dans le cas non réactif et sur la stabilité et la nature de la flamme dans le cas réactif. Ainsi, des études théoriques, expérimentales et numériques, doivent être menées en parallèle pour mieux identifier les effets d'une telle intervention. Bien des questions demeurent ouvertes dans le but de mieux caractériser les différents écoulements turbulents réactifs. Les objectifs des études menées dans ce domaine sont la réduction des émissions de polluants et l‟amélioration du rendement de combustion. Une compréhension du mélange et leur interaction avec les différents processus chimiques traduit donc un enjeu majeur. Elle est considéré alors comme un facteur déterminant la qualité des variétés des procèdes. Ce travail de thèse se base sur les jets coaxiaux qui constituent un cas particulier de jet axisymétrique. Ils sont communément rencontrés dans des différents brûleurs industriels qui assurent le contact entre le comburant et le carburant sous une forme de jets coaxiaux. Cette technique est le siège d‟une amélioration du mélange et de la stabilité des flammes
Résumé non fourni
APA, Harvard, Vancouver, ISO, and other styles
47

Bonakdar, Sakhi Omid. "Segmentation of heterogeneous document images : an approach based on machine learning, connected components analysis, and texture analysis." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00912566.

Full text
Abstract:
Document page segmentation is one of the most crucial steps in document image analysis. It ideally aims to explain the full structure of any document page, distinguishing text zones, graphics, photographs, halftones, figures, tables, etc. Although to date, there have been made several attempts of achieving correct page segmentation results, there are still many difficulties. The leader of the project in the framework of which this PhD work has been funded (*) uses a complete processing chain in which page segmentation mistakes are manually corrected by human operators. Aside of the costs it represents, this demands tuning of a large number of parameters; moreover, some segmentation mistakes sometimes escape the vigilance of the operators. Current automated page segmentation methods are well accepted for clean printed documents; but, they often fail to separate regions in handwritten documents when the document layout structure is loosely defined or when side notes are present inside the page. Moreover, tables and advertisements bring additional challenges for region segmentation algorithms. Our method addresses these problems. The method is divided into four parts:1. Unlike most of popular page segmentation methods, we first separate text and graphics components of the page using a boosted decision tree classifier.2. The separated text and graphics components are used among other features to separate columns of text in a two-dimensional conditional random fields framework.3. A text line detection method, based on piecewise projection profiles is then applied to detect text lines with respect to text region boundaries.4. Finally, a new paragraph detection method, which is trained on the common models of paragraphs, is applied on text lines to find paragraphs based on geometric appearance of text lines and their indentations. Our contribution over existing work lies in essence in the use, or adaptation, of algorithms borrowed from machine learning literature, to solve difficult cases. Indeed, we demonstrate a number of improvements : on separating text columns when one is situated very close to the other; on preventing the contents of a cell in a table to be merged with the contents of other adjacent cells; on preventing regions inside a frame to be merged with other text regions around, especially side notes, even when the latter are written using a font similar to that the text body. Quantitative assessment, and comparison of the performances of our method with competitive algorithms using widely acknowledged metrics and evaluation methodologies, is also provided to a large extend.(*) This PhD thesis has been funded by Conseil Général de Seine-Saint-Denis, through the FUI6 project Demat-Factory, lead by Safig SA
APA, Harvard, Vancouver, ISO, and other styles
48

Yamba, Bidima. "Objets sacrés, objets d'art africains : de l'ombre des sanctuaires à la lumière des musées : la statuette lobi du Burkina Faso." Bordeaux 2, 1996. http://www.theses.fr/1996BOR21012.

Full text
Abstract:
Le passage de la statuette sacrée, de l'obscurité des sanctuaires à la lumière des musées et des galeries, implique nécessairement, qu'à ses valeurs utilitaires et commémoratives se sont substituées de nouvelles significations : esthétique et marchande. Ce phénomène a entraîné en "pays lobi" du Burkina Faso, un fait social qui éclaire les divers changements que vit cette population, sommée de réaliser une difficile synthèse entre tradition et modernité. La création du musée provincial du poni a gaoua, l'importance de ses collections et l'intérêt de la population pour celles-ci, illustrent cette réalité, en dépit du caractère encore élitiste de l'institution muséale. Malgré de multiples difficultés (formation, conservation, organisation, etc. . . ), le musée reste un instrument de sauvegarde de l'héritage culturel et de la cohésion sociale. À partir d'entretiens libres semi-directifs, de méthodes par questionnaires, d'investigations bibliographiques, cette étude ethnologique et muséologique, appliquée à la culture matérielle lobi, s'est efforcée de démontrer que les conséquences de la mutation du statut de la statuette (objet de culte et/ou objet d'art), témoignent, clairement, de la mise en place progressive de nouvelles identités sociales. En effet, aussi bien en Afrique qu'ailleurs, les statuettes tribales continuent, au-delà de nombreux obstacles, de susciter des sentiments et d'offrir aux visiteurs, la possibilité de se relier à un imaginaire. Ceci est la traduction de ce que la sacralité est quelque chose de mouvant.
APA, Harvard, Vancouver, ISO, and other styles
49

Pooam, Marootpong. "The biological effects of applied magnetic fields on cryptochrome and response." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS062.

Full text
Abstract:
Cryptochromes (cry) sont des flavoprotéines absorbant la lumière bleue conservées qui ont été liées à perception de stimuli électromagnétiques dans de nombreux organismes. Nous avons principalement étudié le mécanisme d'interaction entre les champs magnétiques (MF) et cry dans le cadre de la théorie des paires de radicaux. Nous avons étudié la réponse d'Arabidopsis cry-1 in vivo à MF. Les activités biologiques du cry ont été renforcées par MF. Les effets des MF ont pu être observés même si MF était donné exclusivement pendant les intervalles d'obscurité entre expositions à la lumière. Cette découverte a indiqué que l'étape de réaction magnétiquement sensible dans photocycle du cry doit se produire pendant la réoxydation des flavines. De plus, nous avons également utilisé la fréquence (RF) stimulée par cry-Arabidopsis comme outils de diagnostic pour confirmer l'hypothèse de la paire de radicaux. Dans l'étude, nous avons trouvé un effet perturbateur des RF sur l'activité du cryptochrome. Notre découverte pourrait confirmer l'apparition du mécanisme de la paire de radicaux et l'implication du cry pour la magnétoréception. De plus, nous avons également montré un effet perturbateur de la condition MF statique de bas niveau (LLF) où les champs magnétiques externes étaient presque éliminés. Le résultat de cette condition était cohérent avec l'effet de l'exposition aux RF. En outre, nous avons également signalé que LLF pourrait augmenter l'expression de certains gènes induits par le PEMF dans dans les les cellules humaines. Cette découverte pourrait fournir des preuves à l'appui de l'effet des champs électriques magnétiques et non induits sur la physiologie humaine
Cryptochromes are highly conserved blue-light-absorbing flavoproteins that have been linked to the perception of electromagnetic stimuli in numerous organisms. We mainly studied the mechanism for the interaction between magnetic fields and cryptochromes in the context of the radical-pair theory. We investigated the response of Arabidopsis cryptochrome-1 in vivo to a static magnetic field. The biological activities of cryptochrome were enhanced by the magnetic field. Interestingly, the effects of the magnetic fields could be observed even the magnetic field was given exclusively during dark intervals between light exposures. This finding indicated that the magnetically sensitive reaction step in the cryptochrome photocycle must occur during flavin reoxidation. Moreover, we also used frequency (RF) stimulated to Arabidopsis cryptochrome as the diagnostic tools to confirm the radical-pair hypothesis. In the study, we found a disruptive effect of RF on the activity of cryptochrome. Our findings could confirm the occurrence of the radical-pair mechanism and the involvement of cryptochrome for magnetoreception. Additionally, we also showed a disruptive effect of the low-level static magnetic field (LLF) condition where the external magnetic fields were almost eliminated. The result of this condition was consistent with the effect of RF exposure. Furthermore, we also reported that LLF could increase the expression of some PEMF-induced genes in human cells. This finding could provide the evidence to support the effect of magnetic, not induced electric fields in human physiology
APA, Harvard, Vancouver, ISO, and other styles
50

Mutet, Bruno. "Le schéma de régularisation de Taylor-Lagrange, présentation et applications." Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20027/document.

Full text
Abstract:
Le schéma de régularisation de Taylor-Lagrange (TLRS) est basé sur la définition des champs en tant que distributions à valeurs d'opérateurs (OPVD). L'expression de ces OPVD implique des fonctions test qui, grâce à leurs propriétés (propriétés d'échelles, super-régularité), permettent d'étendre des distributions singulières à tout l'espace. Ce type de régularisation, que l'on peut qualifier de coupure ultra-douce, est efficace quelque soit le degré de divergence originel et produit des amplitudes finies dépendant d'une échelle intrinsèque sans dimensions. Enfin, ce schéma préserve les symétries du groupe de Poincaré et l'invariance de jauge. Après avoir présenté le formalisme TLRS, celui-ci est appliqué au calcul des corrections radiatives en QED ainsi qu'à celles à la masse du boson de Higgs dans le cadre du modèle standard de la physique des particules. Dans une dernière partie, il est appliqué au modèle de Yukawa dans le cadre de la dynamique sur le front de lumière. Les corrections radiatives et un calcul non-perturbatif d'états liés sont effectués. Ces exemples permettent de vérifier, d'une part, l'applicabilité de ce schéma dans différents cas, et d'autre part, de tester son respect des propriétés de symétrie des théories
The Taylor-Lagrange regularization scheme (TLRS) is based on the definition of fields as operator valued distributions (OPVD). The expression of these OPVDs implies test functions which, thanks to their properties (scaling properties, super-regularity), allow to extend singular distributions to the whole space. This type of regularization, which could be qualified as an ultra-soft cut-off, is efficient for any order of divergences and produces finite amplitudes depending on an intrinsic dimensionless scale. Finally, this scheme respects the Poincaré group symmetries as well as gauge invariance. After an introduction to the TLRS, it is applied to the calculation of radiative corrections to QED and to the mass of the Higgs boson within the standard model of particle physics. In a last section, it is applied to the Yukawa model using the framework of light front dynamics. Radiative corrections and non-perturbative bound state are calculated. This examples allow to verify, on one hand, the applicability of the TLRS, and on the other hand to test its respect of the symmetry properties of the theories
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography