Tesi sul tema "Profondeurs"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Profondeurs.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Profondeurs".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Fonblanc, Gilles. "Mousses syndactiques : matériaux composites pour grandes profondeurs". Bordeaux 1, 1986. http://www.theses.fr/1986BOR10517.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Etude d'une matrice a base de resine epoxyde et d'un durcissant amine; choix de la charge de type microspheres de verre; caracterisation mecanique du composite formule; tenue a l'eau de la mousse syntactique
2

Fonblanc, Gilles. "Mousses syntactiques matériaux composites pour grandes profondeurs". Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37597655p.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Alligier-Otanian, Sandrine. "Profondeurs et horizons de la demande religieuse : La sécularisation en marche". Aix-Marseille 1, 2006. http://www.theses.fr/2006AIX10041.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de la sociologie contemporaine des religions, ce travail veut proposer une vision alternative de la sécularisation à l'oeuvre au sein de la modernité occidentale. Souvent assimilé, de façon réductrice, au seul déclin actuel du christianisme, ce processus a en réalité une portée bien plus large : véritable dynamique de recomposition permanente du religieux, la sécularisation se trouverait au coeur du fonctionnement de toutes les grandes religions du salut, partie intégrante de leur évolution logique. Cette voie est explorée dans une optique wéberienne, avec comme fil directeur la rationalité de l'offre de sens contenue dans la théodicée chrétienne, confrontée aux préoccupations et aux attentes des hommes, qui fluctuent au gré de leur histoire ; la problématique de la sécularisation se noue ici, dans les modalités d'adaptation du religieux au monde. Saisir les ressorts et la portée d'un tel processus peut ainsi permettre d'offrir des pistes de réponses aux trois questions posées à la fin de l'éthique protestante : notre époque est-elle au retour des religiosités traditionnelles, à l'émergence de nouveaux prophètes ou à une "pétrification mécanisée" ?
4

Bouchonneau, Nadège. "Etude du comportement des systèmes d'isolation thermique pour les grandes profondeurs d'eau". Besançon, 2007. http://www.theses.fr/2007BESA2010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail s'inscrit dans le contexte de l'exploitation offshore par grande profondeur (jusqu'à 3000 mètres) et porte sur l'étude du comportement thermomécanique des systèmes multicouches d'isolation thermique protégeant les pipelines immergés. .
This work deals with the study of the thermomechanical behaviour of multilayered thermal insulation systems protecting subsea pipelines, used in the context of deep sea offshore exploitation (down to 3000 M water depth)
5

Caya, René. "Étude sur la psychologie des profondeurs de C.G. Jung : alchimie et processus d'individuation". Thèse, Université du Québec à Trois-Rivières, 1996. http://depot-e.uqtr.ca/6839/1/000636550.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Durand, Jean-Yves. "Le sens des profondeurs : Ethnographie d'une pratique divinatoire : la sourcellerie, entre hydrogéologie et parasciences". Aix-Marseille 1, 2002. http://www.theses.fr/2002AIX10048.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une ethnographie comparée, menée dans la Drôme, au nord du Portugal et dans une moindre mesure en Nouvelle Angleterre, montre l'absence de styles ethniques en sourcellerie. Par delà quelques propriétés communes, la prolifération de théories et "techniques" sourcières autonormées est soutenue par un système non-cumulatif valorisant l'affirmation par chacun de ses capacités négligées. Les mêmes formes surgissent partout, adaptées à diverses façons individuelles d'être sourcier : chercheur d'eau sur le terrain, téléradiesthésiste médical, mystique, pragmatique, professionnel ou non. L'image conventionnelle de la sourcellerie évoque une pratique immémoriale, rurale, transmise oralement, masculine, "populaire". Mais l'observation attentive montre que, apparue au XVe siècle en Europe, elle est trans-sociale et que des femmes y jouent un rôle. Elle a produit un énorme corpus d'écrits théoriques, didactiques et autobiographiques, tendance renforcée par les nouvelles technologies. Elle a dialogué avec la tradition occultiste érudite autant qu'avec des scientifiques, dont des hydrogéologues. Au début du XXe siècle la théorie radiesthésique, signe d'une foi hyperscientiste, tenta de l'intégrer au paradigme de la science. La géobiologie, ultime de ses avatars, veut faire la synthèse entre la physique, d'une manière indue aux yeux des physiciens, et une approche sensible et subjective. Cette dernière fleurit aujourd'hui, articulée sur la sensibilité "écologiste" et sur le désir de réalisation individuelle. Les études sociales de la science tendent à voir dans les parasciences des révélatrices des bornes et d'insuffisances de la pratique scientifique, ainsi que des champs où se négocient de nouvelles instances d'institution sociale des connaissances. Longtemps prompte à parler de magie, l'anthropologie l'est désormais autant à identifier des savoirs. Confrontée à l'interaction de modalités de connaissance et d'efficacité disparates, elle rencontre des difficultés épistémologiques et éthiques que son présupposé relativiste, outil heuristique indispensable, n'aide pas à réduire.
7

Martinez-Rodriguez, Fernando. "Mmt : un système de stéréovision anthropomorphe pour le calcul de cartes denses de profondeurs". Toulouse, INPT, 1993. http://www.theses.fr/1993INPT115H.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons un système informatique, baptisé MMT, capable d'obtenir de façon fiable et précise une carte dense des profondeurs d'une scène observée par un capteur binoculaire anthropomorphe. Notre modèle de reconstruction d'une scène 3D se divise en deux sous-modèles : l'un pour le positionnement du capteur vis-à-vis de la scène observée et l'autre pour la mise en correspondance des deux images stéréoscopiques obtenues à partir d'un tel positionnement. Ce dernier est formalisé comme un problème d'optimisation combinatoire avec contraintes dont la solution représente la mise en correspondance la plus probable par rapport à l'ensemble des appariements possibles. Deux particularités de ce modèle de mise en correspondance sont d'une part l'approche fréquentielle par différences de phases pour engendrer des connaissances probabilistes sur la disparité et d'autre part le codage bidimensionnel des hypothèses sur le mode 3D : compatibilité-similarité, continuité-régularité. Deux techniques de résolution sont utilisées : le Recuit simulé et la Recherche tabou
8

Philippe, Bertrand. "Etude d’interfaces électrode/électrolyte dans des batteries Li-ion par spectroscopie photoélectronique à différentes profondeurs". Thesis, Pau, 2013. http://www.theses.fr/2013PAUU3006/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les éléments capables de former un alliage avec le lithium, tels que le silicium ou l’étain constituent des composés très prometteurs en tant que matériaux d’électrodes négatives pour la prochaine génération d’accumulateurs Li-ion. Un point important réside dans la compréhension des phénomènes se produisant aux interfaces électrode/électrolyte de ces nouveaux matériaux, la stabilité de la couche de passivation (SEI) se formant lors du cyclage en surface des électrodes constituant un élément primordial vis-à-vis des performances de la batterie. A côté des processus de lithiation et delithiation du matériau actif au cours du cyclage, il est important de mieux connaître la nature, la formation et l’évolution de la SEI de même que l’évolution des oxydes natifs de surface et la réactivité chimique de l’électrode au contact de l’électrolyte. Dans ce travail de thèse, pour mieux connaître et comprendre ces différents processus, nous avons développé une approche d'analyse non destructive à différentes profondeurs de la surface de matériaux d’électrodes. Les analyses ont été réalisées par spectroscopie photoélectronique à rayonnement X (XPS), la modification d’énergie du rayonnement incident permettant une variation de la profondeur d'analyse. Cette méthodologie a été utilisée pour sonder les phénomènes aux interfaces d’électrodes à base de silicium et d’étain. Les mécanismes se produisant lors du premier cycle électrochimique puis au cours d’un long cyclage d’électrodes à base de silicium cyclées avec le sel classique LiPF6 puis avec un nouveau sel très prometteur, LiFSI ont été analysés et discutés. L’étude a été étendue à un nouveau composé intermétallique à base d’étain: MnSn2
Compounds forming alloys with lithium, such as silicon or tin, are promising negative electrode materials for the next generation of Li-ion batteries and an important issue is to better understand the phenomena occurring at the electrode/electrolyte interfaces of these materials. The stability of the passivation layer (SEI) is crucial for good battery performance and its nature, formation and evolution have to be investigated. It is also important to follow upon cycling alloying/dealloying processes, the evolution of surface oxides with battery cycling and the change in surface chemistry when storing electrodes in the electrolyte. The aim of this thesis is to improve the knowledge of these surface reactions through a non-destructive depth-resolved photoelectron spectroscopy analysis of the surface of new negative electrodes. A unique combination utilizing hard and soft-ray photoelectron spectroscopy allows by variation of the photon energy an analysis from the extreme surface to the bulk of the particles. This experimental approach was used to access the interfacial phase transitions at the surface of silicon or tin particles as well as the composition and thickness/covering of the SEI. Interfacial mechanisms occurring upon the first electrochemical cycle and upon long-term cycling of Si-based electrodes cycled with the classical salt LiPF6 and with a new promising salt, LiFSI were investigated as well as the interfacial reactions occurring upon the first cycle of an intermetallic compound MnSn2 were studied
9

Viguier, Régis. "Au seuil de la psychologie des profondeurs : etude comparative des doctrines de janet et d'adler". Paris, EPHE, 1993. http://www.theses.fr/1993EPHE0019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'auteur a choisi, dans l'histoire de la psychologie, l'epoque cruciale de la revolution psychanalytique, en etudiant 2 figures : l'une, anterieure au clivage psychanalytique, janet, l'autre, contemporaine et beneficiaire de ce courant, adler. Ainsi apparait une continuite historique dans la position qu'adler vis-avis de lui : apres un 1er chapitre introductif, destine a decrire le jaillissement creatif du xixe siecle, matrice culturelle du xxe, l'auteur compare les biographies de janet et d'adler. Ainsi apparaissent 2 personnalites, differentes, et neanmoins proches par certaines de leurs conceptions : importance du social et de la faiblesse dans l'elaboration de la personnalite, recherche de la force, refus d'explications speculations. L'etude comparative amene a une vision contrastee de janet : universitaire brillant auteur d'une oeuvre orinale : elaboration de la personnalite a partir du plus simple vers le plus complexe, les conduites autour des concepts de force et de tension psychologiques, le role pathogene du souvenir traumatique inconscient, la nosographie de la psychasthenie, mais universitaire, prisonnier de son esprit scientifique et qui s'est arrete en chemin. Et pourtant, toute evolution ulterieure de la psychologie est contenue dans janet. Adler, lui, beneficie de ce regard psychanalytique, meme si finalement sa doctrine est etrangere a celle de freud. L'un et l'autre ont eu a subir le raz-de maree psychanalytique
The author has chosen two psychologists of the time of the psychoanalytic revolution : janet, prior to the freudian movement and adler, contemporaneous and beneficiciary of this current. So a continuity appears between janet, freud and adler, janet being at the origin of the later, evolution of psychology. After the introductory chapter showing the creative springing up of the xixth century, matrix of the xx th, the author compares the educational climate of janet and adler. Two different personalities appear with some basic ideas in common-importance of the social aspect and weakness in the building of the personality, universal search for strength, refusal of speculative explanations. This comparative study leads to a contrasted vision of janet : a brillant academic, author of an original work : a synthesis of the personality from the simple to the complex, the study of behaviours, with the concepts of psychologic strength and tension, the morbid role of the trauma memory which has become subconscious, the nosography of psychastheny, but an academic, prisoner of his scientific mind who has stopped on his way. Adler benefits from this psychoanalytic movement, even if, finally, his work is totally different from that of freud. Both have been victims of freudism
10

Hammad, Tammam. "Comportement des sédiments marins de grande profondeur : approche multiéchelle". Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00559400.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une analyse expérimentale approfondie avec une approche micro macro a été réalisée sur un matériaucomposé d'un mélange d'argile Kaolinite/Smectite. L'étude a permis de montrer à l'échelle macroscopiquecomme à l'échelle microscopique un comportement particulièrement sensible à la proportion de smectitedans le mélange. La kaolinite (Kaolinite P300) est bien connue du point de vu de sa caractérisation et deson comportement, la smectite (également nommée argile grecque) est de type calcique et a égalementfait l'objet de plusieurs études.Dès 35% de smectite dans le mélange, les résultats sur chemin triaxial montrent que le comportementapproche considérablement celui de la smectite. Par ailleurs, l'investigation à l'échelle microscopique (aumoyen de Microscope Electronique à Balayage complétée par une analyse de diffractions des rayons X)réalisé sur les échantillons après l'essai, met en évidence le fait que, lorsqu'elle dépasse un certain seuil, lafraction en smectite favorise le développement de plans de glissement. Ces plans apparaissent clairementsous forme de groupes de particules de smectite orientées.L'analyse microstructurale utilisée est basée sur une méthode rigoureuse, développée dans le cadre decette thèse, avec un traitement d'images automatisé permettant de fournir des résultats quantitatifs.Cette démarche d'investigation multi‐échelles a été employée afin caractériser le comportement d'unsédiment marin prélevé au large de Golfe de Guinée par 700 m de profondeur d'eau. L'étude, initialementmenée dans le cadre du projet CLAROM (2002‐2005), intéresse l'industrie Offshore. Le sédiment naturelcontient jusqu'à 60% de proportion argileuse avec approximativement 15% de smectite et 50% dekaolinite.
11

Cormier, Geoffroy. "Analyse statique et dynamique de cartes de profondeurs : application au suivi des personnes à risque sur leur lieu de vie". Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S146.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En France, les chutes constituent la première cause de mortalité chez les plus de 75 ans, et la seconde chez les plus de 65 ans. On estime qu'elle engendre un coût de 1 à 2 milliards d'euros par an pour la société. L'enjeu humain et socio-économique est colossal, sachant que le risque de chute est multiplié par 20 après une première chute, que le risque de décès est multiplié par 4 dans l'année qui suit une chute, que les chutes concernent 30% des personnes de plus de 65 ans et 50% des personnes de plus de 85 ans, et que l'on estime que d'ici 2050, plus de 30% de la population sera âgée de plus de 65 ans. Cette thèse propose un dispositif de détection de présence au sol se basant sur l'analyse de cartes de profondeurs acquises en temps réel, ainsi qu'une amélioration du dispositif proposé utilisant également un capteur thermique. Les cartes de profondeurs et les images thermiques nous permettent de nous affranchir des conditions d'illumination de la scène observée, et garantissent l'anonymat des personnes qui évoluent dans le champ de vision du dispositif. Cette thèse propose également différentes méthodes de détection du plan du sol dans une carte de profondeurs, le plan du sol constituant une référence géométrique nécessaire au dispositif proposé. Une enquête psychosociale a été réalisée, qui nous a permis d'évaluer l'acceptabilité a priori dudit dispositif. Cette enquête a démontré sa bonne acceptabilité, et a fourni des préconisations quant aux points d'amélioration et aux écueils à éviter. Enfin, une méthode de suivi d'objets dans une carte de profondeurs est proposée, un objectif à plus long terme consistant à mesurer l'activité des individus observés
In France, fall is the first death cause for people aged 75 and more, and the second death cause for people aged 65 and more. It is considered that falls generate about 1 to 2 billion euros health costs per year. The human and social-economical issue is crucial, knowing that for the mentioned populations, fall risk is multiplied by 20 after a first fall; that the death risk is multiplied by 4 in the year following a fall; that per year, 30% of the people aged 65 and more and 50% of the people aged 85 and more are subject to falls; and that it is estimated that more than 30% of the French population whill be older than 65 years old by 2050. This thesis proposes a ground lying event detection device which bases on the real time analysis of depth maps, and also proposes an improvement of the device, which uses an additional thermal sensor. Depth maps and thermal images ensure the device is independent from textures and lighting conditions of the observed scenes, and guarantee that the device respects the privacy of those who pass into its field of view, since nobody can be recognized in such images. This thesis also proposes several methods to detect the ground plane in a depth map, the ground plane being a geometrical reference for the device. A psycho-social inquiry was conducted, and enabled the evaluation of the a priori acceptability of the proposed device. This inquiry demonstrated the good acceptability of the proposed device, and resulted in recommendations on points to be improved and on pitfalls to avoid. Last, a method to separate and track objects detected in a depth map is proposed, the measurement of the activity of observed individuals being a long term objective for the device
12

Le, Lous Morgan. "Transferts de pression, de masse et d'énergie au sein des systèmes aquifères grandes profondeurs : application à la géothermie haute énergie". Thesis, Bordeaux 3, 2017. http://www.theses.fr/2017BOR30003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Utilisée depuis des milliers d’années sous ses manifestations naturelles par l’Homme, cette ressource fait l’objet d’une exploitation commerciale depuis seulement le XXe siècle, à destination du chauffage de bâtiments, de certains usages industriels ainsi que de la production d’électricité. La France compte parmi les pionniers concernant l’usage direct de la chaleur alors qu’aucune filière industrielle n’est véritablement effective pour la production d’électricité d’origine géothermique. Le projet sélectionné, intitulé FONGEOSEC, a pour objectif la conception et la réalisation d’un démonstrateur innovant préindustriel d’une centrale géothermique haute enthalpie exploité par cogénération d’électricité et de chaleur. Un travail de recherche et développement, conduit par un consortium composé de partenaires industriels et scientifiques, vise au lancement de la filière industrielle géothermique haute température en France. L’objectif général des travaux de thèse porte sur une meilleure compréhension globale des comportements hydrauliques, massiques et thermiques des formations profondes en réponse à une sollicitation anthropique de longue durée. Il s’agit d’identifier les paramètres clés régissant la réponse du complexe réservoir à la suite d’une exploitation géothermique. Un point particulier sera consacré à caractériser la part de chacun des modes de transport de chaleur en milieu poreux – conduction thermique, convection libre et forcée – dans l’établissement des performances thermiques de l’ouvrage considéré. Plusieurs dispositifs techniques d’exploitation seront proposés afin de réduire les incertitudes associées au système géothermique souterrain et garantir le succès du projet FONGEOSEC. L’impact des mécanismes thermo-convectifs au voisinage des forages d’exploitation géothermique de grande profondeur reste peu documenté, a fortiori dans le cas de dispositifs déviés adoptant une complétion particulière. L’outil retenu pour l’évaluation des performances du dispositif au contact de l’encaissant est la modélisation numérique distribuée. La variabilité des propriétés physiques de l’hydrosystème, de la conception et des modalités d’exploitation du dispositif sur le comportement hydraulique et thermique de l’exploitation est envisagée selon différentes approches développées à partir de modèles numériques 3D
Used for thousands of years under its natural manifestations, this resource has been commercially exploited since the twentieth century, for the heating of buildings, certain industrial uses and the production of electricity. France is one of the pioneers in the direct use of heat, whereas no industrial cluster is truly effective for the production of geothermal electricity. The selected project, FONGEOSEC, aims to design and produce an innovative pre-industrial demonstrator of a high enthalpy geothermal power plant operated by cogeneration of electricity and heat. A research and development project, led by a consortium of industrial and scientific partners, aims to launch the high-temperature geothermal industrial sector in France. The general objective of this thesis is to improve the understanding of the hydraulic, mass and thermal behavior of deep porous formations in response to long-term anthropogenic stress. The aim is to identify the key parameters governing the response of the reservoir complex related to geothermal operation. A particular point will be devoted to characterize the part of each mode of transport of heat in porous medium – thermal conduction, free and forced convection – in the establishment of the thermal performances of the geothermal power plant. Several technical operating devices will be proposed to reduce the uncertainties associated with the underground geothermal system and guarantee the success of the FONGEOSEC project. The impact of thermo-convective mechanisms in the vicinity of deep geothermal borehole remains poorly documented, especially in the case of deviated wells with a complex inner geometry. The evaluation of the hydraulic and thermal performances of the device, based on 3D numerical modeling, is conducted according to different approaches
13

Péton, Loïc. "Penser l'existence de vie dans les profondeurs marines au XIXe siècle : entre abîme impossible et origine du vivant (1804-1885)". Thesis, Brest, 2016. http://www.theses.fr/2016BRES0001/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Abîme : gouffre, enfer, chaos. En marge de la civilisation occidentale, ténébreuses et dévalorisées, les profondeurs marines furent pensées et expérimentées au cours du XIXe siècle. Sur le pont du navire, le naturaliste s’appropriait les techniques de pêche et fouillait les antres d'un univers obscur pour récolter une faune méconnue.Cette thèse démontre l'importance de diverses influences, provenant de contextes différents, qui modelaient les théories au sujet de l'existence de vie dans cet univers. L'idée d'une vie limitée, à partir d'un certain niveau de profondeur, domina, notamment avec la théorie azoïque (1843) du Britannique Edward Forbes (1815-1854). Selon nous, elle formait un horizon ultime, telle une finitude anthropomorphique appliquée à la répartition des animaux. Par la suite, la représentation d'une vie présente en tous lieux – une « vie triomphante » – la remplaça au cours de la décennie 1860 pour former la base de notre savoir actuel, à un moment où l'abîme était perçu tel un antre du passé hébergeant des « fossiles-vivants ». Ces représentations constituaient les réverbérations d'une culture et d'intérêts que nous explicitons.Ce travail révèle également une focalisation des savants sur certains objets, comme le fond marin, repère fixe perçu par un filtre terrestre couplé à une analogie avec l'altitude. Le visage bathymétrique de l'océan profond se dessinait alors, tandis que le câble télégraphique devenait une interface de renouveau pour le savoir propre à l'abîme. Une volonté d'ériger un panorama absolu de l'océan parcourait cette période, cela par une extrapolation horizontale (toutes mers) et verticale (toutes profondeurs) de quelques observations relevées
Abyss : chasm, hell, chaos. On the fringe of the western civilization, the marine depths were regarded as impenetrable and were depreciated before being studied during the 19th century. At sea, the naturalist took over fishing techniques and rummaged through a dark universe to collect an unknown fauna.This thesis shows the importance of the various influences that shaped the scientific theories about the existence of life in the abyss.The idea of a limit for marine life, beneath a given depth, dominated, notably using the azoic theory (1843) of the British Edward Forbes (1815-1854). According to us, this theory was a “final horizon”, that is to say an anthropomorphic finitude placed on the animal distribution. Later, the representation of a life inhabiting every place – a “triumphant life” – replaced it during the 1860s to form the basis of our current knowledge, at a time when the abyss was regarded as a “lair of the past” containing “living-fossils”. These representations were reflections of a culture and of interests.This work also reveals that the scientists focused on some objects like the seabed, which was a fixed mark considered through a terrestrial view linked to an analogy with altitude. The bathymetric face of the ocean emerged while the submarine cable became an “interface of revival” for the knowledge about the abyss. The will to design an “absolute panorama” of the ocean was present in this period, using horizontal (every sea) and vertical (every depth) extrapolations from a few facts
14

Vernerey, Franck. "Analyse multivariable de données ToF-SIMS, spectres de surface - profiles en profondeurs - imagerie de surface : développement du logiciel MULTI-ION SIMS". Lyon 1, 2003. http://www.theses.fr/2003LYO10247.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'interprétation des spectres ToF-SIMS requiert une expérience et une expertise confirmées et nécessite un temps d'exploitation important. Les méthodes classiques d'interprétation des spectres ToF-SIMS se focalisent sur quelques ions spécifiques considérés comme étant physiquement significatifs. Ceci génère une importante perte de l'information contenue dans les données ToF-SIMS. Par contraste, les méthodes multivariables prennent en compte la totalité des volumineux spectres de masse, corrèlent tous les ions et extraient exhaustivement l'information spectrale. Afin de démontrer l'intérêt de ces méthodes, l'analyse en composantes principales et la régression sur composantes principales ont été appliquées aux trois modes d'analyse ToF-SIMS : les spectres de surface, le profil en profondeur et l'imagerie de surface. Au cours de ce travail de recherche, le logiciel MULTI-ION SIMS®, spécialement dédié à l'analyse multivariable de données ToF-SIMS, a été développé.
15

POZEK, ANTON. "La personnalite et la conscience de l'autre sexe a l'adolescence (la psychologie dialectique des profondeurs en tant que modele theorique de la psychologie clinique)". Paris 5, 1989. http://www.theses.fr/1989PA05H061.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'etude du rapport d'identite entre la personnalite ( type psychologique) du sujet et sa conscience de l'autre sexe ( type d'objet heterosexuel) a l'adolescence (echantillon: classes de terminale, age moyen 19 ans) a partir du nouveau modele theorique de la psychologie clinique, a savoir la psychologie dialectique des profondeurs ( resultat de la triade dialectique: la psychanalyse de s. Freud, en tant que these, la psychologie individuelle comparee d'a. Adler, en tant qu'antithese et la psychologie analytique complexe de c. G. Jung, en tant que synthese) montre, d'une part, qu'en fonction de la variable "experience sexuelle", il existe un rapport d'identite particulier, maisque la difference n'est pas significative statistiquement et, d'autre part, qu'en fonction de la variable "sexe", il existe un rapport d'identite particulier significatif statistiquement.
16

Millet, Marc-Alban. "Interactions de faibles profondeurs et géochimie des basaltes d'îles océaniques : implications sur les modes d'acquisition de la signature isotopique et sur la topogique mantellique". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00718419.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les compositions isotopiques de Sr, Nd et Pb des basaltes d'îles océaniques ont été mesurées de manière systématique depuis 30 ans. Les variations de ces compositions sont classiquement interprétées comme la signature du mélange entre des composants présents au sein des panaches mantelliques. Cependant elles peuvent aussi représenter des interactions entre les magmas et les réservoirs qu'ils traversent au cours de leurs remontées vers la surface. Après avoir mis en évidence les processus pouvant altérer la composition initiale d'un magma et proposer des moyens de s'en affranchir, 2 études locales sont éffectuées (îles de Sao Nicolau et de Sao Jorge, archipels du Cap Vert et des Açores). Ces deux études montrent la part importante des variations d'origine superficielle dans ces deux localités. Ces résultats sont ensuite généralisés à d'autres localités clés de la topologie mantellique et permettent de discuter d'un composant primitif ubiquiste dans les panaches mantelliques
17

Millet, Marc-Alban. "Interactions de faibles profondeurs et géochimie des basaltes d'îles océaniques : implications sur les modes d'acquisition de la signature isotopique et sur la topogique mantellique". Phd thesis, Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21794.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les compositions isotopiques de Sr, Nd et Pb des basaltes d'îles océaniques ont été mesurées de manière systématique depuis 30 ans. Les variations de ces compositions sont classiquement interprétées comme la signature du mélange entre des composants présents au sein des panaches mantelliques. Cependant elles peuvent aussi représenter des interactions entre les magmas et les réservoirs qu'ils traversent au cours de leurs remontées vers la surface. Après avoir mis en évidence les processus pouvant altérer la composition initiale d'un magma et proposer des moyens de s'en affranchir, 2 études locales sont éffectuées (îles de Sao Nicolau et de Sao Jorge, archipels du Cap Vert et des Açores). Ces deux études montrent la part importante des variations d'origine superficielle dans ces deux localités. Ces résultats sont ensuite généralisés à d'autres localités clés de la topologie mantellique et permettent de discuter d'un composant primitif ubiquiste dans les panaches mantelliques
18

Laporte, Marine. "Contribution à l'amélioration de l’estimation de la profondeur hypocentrale à partir de réseaux régionaux ou globaux". Electronic Thesis or Diss., Université Paris sciences et lettres, 2022. http://www.theses.fr/2022UPSLE055.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s’intéresse aux différentes méthodes d’estimation de la profondeur hypocentrale ainsi qu’à la mise en évidence des incertitudes de localisation qui peuvent leur être associées. À distance régionale, on utilise ces méthodes pour cartographier les petites variations de profondeur hypocentrales liées à l’activité du grand chevauchement himalayen au Népal ou pour analyser des crises sismiques choisies selon l’actualité et les opportunités rencontrées durant ces trois ans de thèse. Les effets des différentes sources d’incertitudes sur l’estimation de la profondeur hypocentrale sont quantifiés par le biais d’une analyse de sensibilité globale de type Sobol-Monte Carlo. Pour améliorer l’estimation de la profondeur hypocentrale à distance télésismique, on développe une nouvelle méthode d’estimation de la profondeur à partir des arrivées pP/sP dans les enveloppes énergétiques des signaux. Une adaptation de cette méthode permet notamment de mettre en évidence des variations latérales relatives de profondeur le long d’interfaces de subduction au Chili et en Équateur. Les différentes échelles d’observations et les différentes techniques d’estimation de la profondeur sont confrontées sur des ensembles d’évènements de magnitude intermédiaire (M>5) afin de caractériser l’incertitude de profondeur à distance télésismique, mettre en évidence ou quantifier des sources de biais spécifiques ou pour renforcer certaines interprétations sismotectoniques régionales
This thesis focuses on the different methods of estimating hypocentral depth and on the identification of localization uncertainties that may be associated with them. At a regional distance, we use these methods to map small hypocentral depth variations related to the activity of the Great Himalayan Thrust in Nepal or to analyze opportunistic seismic crisis. The effects of different sources of uncertainty on the hypocentral depths are quantified through a global Sobol-Monte Carlo sensitivity analysis. To improve the estimation of the hypocentral depth at teleseismic distance, we develop a new method of depth identification from the pP/sP arrivals in the energetic envelopes of the teleseismic signals. An adaptation of this teleseismic envelopes method allows us to highlight relative lateral depth variations along subduction interfaces in Chile and Ecuador. The different scales of observations and the different depth estimation techniques are compared on intermediate magnitude events (M>5) in order to characterize the depth uncertainty at teleseismic distance, to highlight or quantify specific sources of bias or to reinforce some regional seismotectonic interpretations
19

Schramm, Florian. "Contributions à l'asservissement visuel : la commande 2D étendue". Paris 6, 2006. http://www.theses.fr/2006PA066409.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les manipulateurs doivent de plus en plus interagir avec leur environnement. Par conséquent, L’asservissement visuel s'intéresse à exploiter des informations visuelles pour la commande des manipulateurs. Dans ce cadre, nous avons choisi d'étudier un vecteur de primitives particuliers, basé sur les coordonnées 2D étendues (2Dé). Nous démontrons la stabilité asymptotique pour le système bouclé, un travail original pour la classe d'asservissements visuel étudiés et caractérisés par un traitement d'image simple, car qui ne requière pas de pose de caméra. De suite, la visibilité de la cible est étudiée. En effet, il faut restreindre les déplacements du manipulateur afin que la caméra embarquée sur l'effecteur garde l'objet à l'intérieur du champ visuel. Cette exigence est atteinte par une planification de chemin de points images, basée sur les coordonnées 2Dé. Les deux algorithmes originaux planifient un déplacement garantissant la visibilité et ne requièrent pas de calibrage. Les résultats ont été validés sur site d'essai
Visual servoing aims for actuated manipulators to interact with their environment by exploiting visual cues. Within this framework, this thesis studies the closed loop behaviour for a choosen feature vector, namely composed by the extended 2D coordinates of a cloud of image points. Amongst other, global asymptotic stability can be shown in the nominal case, and local asymptotic stability in the case of calibration errors. The selected features do not require any 3D reconstruction of camera pose nor orientation, which allows for a simple image treatment. Secondly, the visibility problem is treated. Indeed, moving the manipulator with a camera mounted on its end-effector in an arbitrary way may cause the target to leave the field of view and, in turn, the servoing to fail. Hence, trajectories are planned in extended 2D coordinates along which the target remains visible. Two different algorithms are proposed, which guaranties visibility by closed form solutions invariant to calibration errors. All theoretical results have been validated by experiments
20

Checchin, Paul. "Segmentation d'images de profondeur". Clermont-Ferrand 2, 1996. http://www.theses.fr/1996CLF21871.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse concerne la segmentation des données discrètes 3D, appelées images de profondeur, fournies par des capteurs de profondeur actifs. Ces informations tridimensionnelles sont une représentation point par point des surfaces observées par ces capteurs de vision. Les différents méthodes et capteurs permettant l'acquisition d'informations tridimensionnelles sont décrits. Le problème de la segmentation d'images de profondeur est défini, puis les principales techniques de segmentation sont présentées. Une analyse de l'état de l'art dans le domaine nous amène à justifier la direction de nos travaux, en particulier à dissocier la segmentation d'images de profondeur en deux problèmes selon le type de scènes analysées, constituées d'objets uniquement polyedriques ou non. Une méthode de segmentation d'images de profondeur en surfaces planes est tout d'abord proposée, puis elle est étendue à la segmentation en régions planes et courbes. Les originalités de la méthode reposent sur le procédé d'estimation des attributs différentiels et sur le choix des germes de la croissance de régions. Les régions extraites sont représentées par un graphe d'adjacence et forment la base d'une pyramide de graphes. Les données initiales sont filtrées. Le choix du filtre réducteur de bruit est realisé lors d'une étude comparative de plusieurs opérateurs existants. L'étape suivante consiste à analyser les différents profils 1D de l'image, constitués par ses lignes et ses colonnes, afin d'estimer les derivées directionnelles du premier et du second ordre. La normale et la courbure moyenne à la surface en chaque pixel sont ensuite déduites, tout en tenant compte des discontinuités de profondeur. Les pixels sont alors regroupés en régions homogènes au sens de ces attributs. A partir du graphe d'adjacence des régions ainsi obtenues, une stratégie pyramidale de fusion, parallélisable, est mise en oeuvre pour aboutir au résultat de la segmentation. Les performances de l'algorithme proposé sont caracterisées. Les résultats, obtenus à partir d'un jeu important d'images réelles issues de capteurs différents, sont présentés et comparés avec ceux fournis par d'autres méthodes connues. Cette évaluation quantitative est menée sur la base de critères calculés à partir d'une connaissance de la segmentation idéale. Les mesures effectuées montrent que l'approche que nous avons developpée fournit, dans des temps de calcul acceptables, des résultats de qualité similaire, sinon supérieure, à ceux obtenus par d'autres techniques.
21

Enriquez, Romain. "L’invention littéraire de l’inconscient dans le récit de fiction (contes, nouvelles, romans) entre 1850 et 1895". Thesis, Paris 4, 2017. http://www.theses.fr/2017PA040069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
À l’encontre des études qui plaquent des concepts psychanalytiques sur des pré-textes, c’est-à-dire des textes transformés en matériaux d’analyse, nous nous proposons de suivre la trajectoire du récit de fiction (romans, contes, nouvelles...) dans l’invention de la notion d’inconscient. Dans la seconde moitié du XIXe siècle, l’inconscient fait une apparition décisive sous le masque des mots (« profondeur », « automate », « à son insu », « idée fixe »...), des sujets (le rêve, l’hypnose, l’hystérie…), des personnages (en proie à des troubles de la personnalité, de la volonté, de la mémoire) et de la voix narrative qui les énonce. Le verrou que l’histoire littéraire impose aux écrivains, regroupés en courants qui s’incarneraient dans des manifestes, cède sous la poussée d’une notion ou d’une intuition d’autant plus difficile à saisir qu’elle est protéiforme. Tous s’interrogent sur les abîmes de la création artistique, le langage involontaire du corps, la dualité du « moi », apportant une pierre sans savoir pour quel monument. De Flaubert à Zola en passant par Huysmans, Barbey d’Aurevilly, les Goncourt, Bourget, Maupassant, Dujardin et bien d’autres, nous cherchons comment le récit de fiction dialogue avec les savoirs (psycho-physiologie, médecine, philosophie, biologie…) mais constitue aussi son arsenal symbolique, son dispositif herméneutique, devenant ainsi un acteur épistémologique à part entière. À rebours de discours prétendant à l’objectivité scientifique, la littérature s’implique avec le lecteur dans l’écriture de l’inconscient – qu’elle découvre moins qu’elle ne l’invente, qu’elle décrit moins qu’elle ne le construit, avec une liberté qui ne va pas sans ambiguïtés
Unlike a set of studies which tack psychoanalytical concepts onto pre-texts, i.e .texts transformed into material for analysis, we study the specific contribution of fiction (novels, tales, short stories, narrative forms…) to the invention of the concept of unconscious. In the second half of the 19th century, the unconscious makes a crucial appearance behind the mask of words (“depth”, “automatic”, “without knowledge”, “obsession”…), topics (dreams, hypnosis, hysteria…), characters (facing personality, behavior or memory disorders…) and narrative voices. Literary history has always gathered writers in “literary movements” embodied in “manifestos”; yet this categorisation collapses under the pressure of this notion or intuition, more difficult to grasp as it proves to be protean. All of them wonder about the depths of artistic creation, the unintended language of the body, the duality or little reality of “ego”; all of them throw a stone without knowing the monument at which they are aiming. From Flaubert to Zola and Huysmans, Barbey d’Aurevilly, Goncourt, Bourget, Maupassant, Dujardin – just to name a few –, we investigate how fiction dialogues with various knowledges (psychophysiology, medicine, philosophy, biology…) and, along with science, how fiction may develop its symbolic arsenal, its hermeneutic register and becomes an epistemological player in its own right. Again, we investigate how literature, in opposition to the speeches skillful with scientific neutrality, operates freely, but not free of ambiguities. Indeed, it involves with reader in the writing of an unconscious not so much described but rather constructed, not so much discovered but rather invented
22

LETHANH, HUONG. "Circuits arithmetiques en profondeur constante". Paris 11, 1998. http://www.theses.fr/1998PA112372.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these contribue au domaine de la theorie de la complexite. Nous avons etudie des classes de comptage definies dans le modele de machine turing et dans le modele de familles de circuits. Nous avons regroupe differents resultats concernant ces classes selon deux themes principaux : comptage positif et comptage relatif. Nous avons etabli une liste de proprietes communes de ces classes, par exemple la cloture par addition faible, par multiplication faible et par formation de coefficients binomiaux restreints. Nous avons mis l'accent sur les classes de comptage relatif et presente deux approches differentes pour definir ces classes et nous obtenons les classes gap et les classes diff. En particulier nous avons etudie les classes diffac#0 et gapac#0 des fonctions calculables par une famille de circuits arithmetiques de profondeur constante, de taille polynomiale et de degre entrant non borne avec un nombre non borne de portes de soustraction (respectivement avec une seule porte de soustraction a la sortie). Nous avons prouve que ces deux classes sont egales. Ce resultat a aussi permis de montrer que le calcul de la partie entiere de la fonction (x#1 + + x#n)/2 ne peut etre calcule par une famille de circuits arithmetiques de profondeur constante, de taille quasi-polynomiale et de degre entrant non borne qui ne contient aucune porte de soustraction.
23

GHIDAGLIA, CLAUDE. "Filtration en profondeur de particules". Paris 6, 1994. http://www.theses.fr/1994PA066371.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous etudions la filtration de particules entrainees par un ecoulement a faible nombre de reynolds dans un empilement desordonne de spheres de verre de meme taille. Nous pouvons visualiser la trajectoire des particules car l'indice de refraction du fluide est ajuste avec celui du verre. L'influence de la structure geometrique du filtre et les effets hydrodynamiques sont etudies plus particulierement. Les mesures portent sur les distributions statistiques des profondeurs de penetration des particules dans le milieu. Des experiences systematiques en fonction de la taille des particules nous ont permis de mettre en evidence deux types de sites de capture: sites de constriction de taille inferieure a celle des particules et sites ou la capture est due a des effets hydrodynamiques. D'autre part, nous avons observe que des particules injectees par paquets penetrent plus loin dans le filtre que si elles sont injectees une a une. Par comparaison avec des experiences sans ecoulement, nous avons pu montrer que cet effet de concentration inattendu est du aux interactions hydrodynamiques entre les particules qui en se propageant modifient le champ local de vitesse dans le milieu. L'etude numerique consiste en une simulation monte carlo ou l'espace des pores est modelise par un reseau carre a deux dimensions de tubes de rayon aleatoire. Les vitesses locales sont calculees par application de la loi de poiseuille et la loi de propagation des particules est probabiliste: la probabilite pour une particule de choisir un pore est proportionnelle au debit dans ce pore. La modelisation de l'effet de concentration des particules qui augmente leur profondeur de penetration consiste a definir un rayon d'interaction hydrodynamique entre particules de l'ordre d'une ou deux longueurs de pore. Une particule capturee peut etre liberee par le passage alentour d'une autre particule situee a une distance inferieure a ce rayon d'interaction
24

Resmerita, Diana. "Compression pour l'apprentissage en profondeur". Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les voitures autonomes sont des applications complexes qui nécessitent des machines puissantes pour pouvoir fonctionner correctement. Des tâches telles que rester entre les lignes blanches, lire les panneaux ou éviter les obstacles sont résolues en utilisant plusieurs réseaux neuronaux convolutifs (CNN) pour classer ou détecter les objets. Il est très important que tous les réseaux fonctionnent en parallèle afin de transmettre toutes les informations nécessaires et de prendre une décision commune. Aujourd'hui, à force de s'améliorer, les réseaux sont devenus plus gros et plus coûteux en termes de calcul. Le déploiement d'un seul réseau devient un défi. La compression des réseaux peut résoudre ce problème. Par conséquent, le premier objectif de cette thèse est de trouver des méthodes de compression profonde afin de faire face aux limitations de mémoire et de puissance de calcul présentes sur les systèmes embarqués. Les méthodes de compression doivent être adaptées à un processeur spécifique, le MPPA de Kalray, pour des implémentations à court terme. Nos contributions se concentrent principalement sur la compression du réseau après l'entraînement pour le stockage, ce qui signifie compresser des paramètres du réseau sans réentraîner ou changer l'architecture originale et le type de calculs. Dans le contexte de notre travail, nous avons décidé de nous concentrer sur la quantification. Notre première contribution consiste à comparer les performances de la quantification uniforme et de la quantification non-uniforme, afin d'identifier laquelle des deux présente un meilleur compromis taux-distorsion et pourrait être rapidement prise en charge par l'entreprise. L'intérêt de l'entreprise est également orienté vers la recherche de nouvelles méthodes innovantes pour les futures générations de MPPA. Par conséquent, notre deuxième contribution se concentre sur la comparaison des représentations en virgule flottante (FP32, FP16) aux représentations arithmétiques alternatives telles que BFloat16, msfp8, Posit8. Les résultats de cette analyse étaient en faveur de Posit8. Ceci a motivé la société Kalray à concevoir un décompresseur de FP16 vers Posit8. Enfin, de nombreuses méthodes de compression existent déjà, nous avons décidé de passer à un sujet adjacent qui vise à quantifier théoriquement les effets de l'erreur de quantification sur la précision du réseau. Il s'agit du deuxième objectif de la thèse. Nous remarquons que les mesures de distorsion bien connues ne sont pas adaptées pour prédire la dégradation de la précision dans le cas de l'inférence pour les réseaux de neurones compressés. Nous définissons une nouvelle mesure de distorsion avec une expression analytique qui s’apparente à un rapport signal/bruit. Un ensemble d'expériences a été réalisé en utilisant des données simulées et de petits réseaux qui montrent le potentiel de cette mesure de distorsion
Autonomous cars are complex applications that need powerful hardware machines to be able to function properly. Tasks such as staying between the white lines, reading signs, or avoiding obstacles are solved by using convolutional neural networks (CNNs) to classify or detect objects. It is highly important that all the networks work in parallel in order to transmit all the necessary information and take a common decision. Nowadays, as the networks improve, they also have become bigger and more computational expensive. Deploying even one network becomes challenging. Compressing the networks can solve this issue. Therefore, the first objective of this thesis is to find deep compression methods in order to cope with the memory and computational power limitations present on embedded systems. The compression methods need to be adapted to a specific processor, Kalray's MPPA, for short term implementations. Our contributions mainly focus on compressing the network post-training for storage purposes, which means compressing the parameters of the network without retraining or changing the original architecture and the type of the computations. In the context of our work, we decided to focus on quantization. Our first contribution consists in comparing the performances of uniform quantization and non-uniform quantization, in order to identify which of the two has a better rate-distortion trade-off and could be quickly supported in the company. The company's interest is also directed towards finding new innovative methods for future MPPA generations. Therefore, our second contribution focuses on comparing standard floating-point representations (FP32, FP16) to recently proposed alternative arithmetical representations such as BFloat16, msfp8, Posit8. The results of this analysis were in favor for Posit8. This motivated the company Kalray to conceive a decompressor from FP16 to Posit8. Finally, since many compression methods already exist, we decided to move to an adjacent topic which aims to quantify theoretically the effects of quantization error on the network's accuracy. This is the second objective of the thesis. We notice that well-known distortion measures are not adapted to predict accuracy degradation in the case of inference for compressed neural networks. We define a new distortion measure with a closed form which looks like a signal-to-noise ratio. A set of experiments were done using simulated data and small networks, which show the potential of this distortion measure
25

Cisse, Mouhamadou Moustapha. "La fonction de profondeur de Tukey". Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34506.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce mémoire nous définissons la fonction de profondeur de Tukey d’une mesure positive et finie sur Rd. Par la suite nous étudions les propriétés de cette fonction, notamment les propriétés de continuité et de convexité. Notre objectif est d’établir une caractérisation d’une mesure par sa fonction de profondeur. Plus précisément, étant donné μ et v deux mesures de Borel positives et finies sur Rd, a-t-on μ = v si μ et v ont la même fonction de profondeur? En utilisant des propriétés de la fonction de profondeur, nous établissons une caractérisation lorsque la mesure satisfait certaines propriétés géométriques. Par la suite, nous présentons quelques approches afin de calculer la fonction de profondeur d’une mesure. Enfin nous prouvons le théorème de caractérisation d’une mesure discrète par sa fonction de profondeur de Tukey.
In this memoir we define the Tukey depth function of a positive finite measure on Rd. Then we study the properties of this function, in particular the properties of continuity and convexity. We seek to establish a characterization of a measure by its depth function. That is, given μ, v finite positive measures on Rd, do we have μ = v if μ and v have the same Tukey depth function? We use the properties of the depth function to establish such a characterization when the measure satisfies certain geometric properties. Then we exhibit some approaches for computing the Tukey depth function. Finally we prove the theorem of characterisation of a discrete measure by its Tukey depth function.
26

Ilahi, Zouhaier. "Proust et la profondeur. L'écriture des paysages". Electronic Thesis or Diss., Paris 3, 2023. http://www.theses.fr/2023PA030056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse étudie le rôle de l’écriture dans le dévoilement de la profondeur des paysages dans les écrits de Marcel Proust qui s’étendent des années de collège jusqu’à À la Recherche du temps perdu. L’écriture romanesque de Proust est sous-tendue par une dynamique de manifestation de la profondeur des paysages naturels et musicaux qui se développent dans l’entre-deux du visible et de l’invisible, de l’audible et de l’inaudible. Proust recourt en effet à l’expression de l’entre-deux pour montrer les limites de la pensée romantique fondée sur la philosophie mystique de l’art, du Réalisme tautologique institué sur la description des surfaces et de la poésie symboliste hermétique qui perpétue la pensée platonicienne. Aussi Proust récuse-t-il les fondements du platonisme qui s’étend jusqu’à l’idéalisme français moderne. L’expression de la subjectivité permet certainement à Proust de souligner le déclin du rationalisme au début du XXe siècle qui voit l’essor de l’inconscient et de l’involontaire. L’approfondissement des paysages, du réel et des choses fonde effectivement le réalisme subjectif de Proust. L’entre-deux du sensible et de l’intelligible place le roman aux frontières de l’artistique (Monet, Whistler, Giotto, Beethoven, Wagner, Chopin, Schumann) et du philosophique (Schelling, Schopenhauer, Séailles). L’écriture de la profondeur s’intègre certainement dans le cadre d’une quête de la continuité et développe une connaissance instituée sur la catégorie de la relation, voie d’accès à l’intériorité et au gouffre. Incontestablement, Proust est un écrivain et un penseur de la profondeur
This thesis studies the role of the writing in unveiling to what extent the notion of depeth of landscapes is present in the works of Marcel Proust stretching from the college years until In search of lost time. The novelistic writing is underpinned by a dynamic of appearance of the depth of natural and musical landscapes that actually have developments in the interval of the visible and the invisible, the audible and the inaudible. Actually, Proust uses the expression of the interval to expose the limitations of the romanticism thought which perpetuates the mystic philosophy of art, the tautological Realism founded on the description of surfaces as well as the hermetic symbolist poetry which reproduce the Platonism. Therefore, Proust contests the foundations of Platonism stretching until the modern French idealism. The expression of subjectivity also allows Proust to emphasize the decline of rationalism on the decline at the turn of the XX th century that witnesses the rise of the unconscious and the involuntary. Indeed, the deepening of the landscapes, reel and things has founded the subjective realism of Proust. The interval of sensible and intelligible situates the novel in the border of the artistic (Monet, Whistler, Giotto, Beethoven, Wagner, Chopin, Schumann) and the philosophical (Schelling, Schopenhauer, Séailles). The writing of landscapes depth is certainly integrated into the quest of the continuity and develop a knowledge established on the category of the relation, a way to interiority and abyss. Undeniably Proust is a writer and a thinker of the depth
27

Fabien-Ouellet, Gabriel. "Mesures sismiques à faible profondeur : Une approche intégrée". Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30405/30405.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Des mesures sismiques à faible profondeur ont été réalisées dans le cadre d’une étude hydrogéophysique en Outaouais pour investiguer le sous-sol. À cet effet, une approche intégrée qui regroupe plusieurs méthodes de traitement du signal sismique a été développée. Dans cette approche, l’ensemble des modes de propagation sismique est considéré en effectuant l’analyse conjointe des ondes de surface, des ondes réfractées critiquement et des ondes réfléchies de compression P et de cisaillement polarisées verticalement SV. Cette approche intégrée est beaucoup plus robuste que si chaque méthode était considérée séparément. Elle permet d’estimer la distribution spatiale des vitesses de propagation des ondes P et S de la sous-surface et d’obtenir des profils en réflexion qui permettent d’identifier les contacts stratigraphiques. Quatre études de cas dans la région de l’Outaouais sont présentées pour illustrer cette approche. Pour l’une de ces études à Buckingham, un essai de pénétration au piézocône sismique a été réalisé afin de valider les modèles de vitesse obtenus à partir de l’approche développée. Cette approche intégrée est applicable entre autres aux domaines de l’environnement, de la géotechnique, des risques naturels et de l’hydrogéologie.
28

Grandemange, Philippe. "Représentation des connaissances et profondeur variable : une implantation". Paris 13, 1992. http://www.theses.fr/1992PA132008.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous présentons le système VaDe de représentation et de manipulation des connaissances, qui est basé sur une conception nouvelle de la sémantique des représentations: la profondeur variable, alternative à une vision purement logique. Les concepts de sens commun ne sont pas des entités du système de représentation: un concept est représenté par un point d'entrée dans une famille d'entités (nuds) du système +la capacité a développer un paquet de nuds +un système de propagation du point d'entrée vers les autres nuds. Cette famille ne se présente pas comme donnée a priori: nous considérons la création de nuds comme un processus de raffinement qui s'arrête dès qu'une interprétation acceptable est trouvée. Pour traiter plus efficacement l'interprétation des concepts de sens commun par des entités formelles. VaDe est un système hybride (règles + module d'instanciation + réseau sémantique) doté d'un système de maintenance à la atms et utilisant le raisonnement non monotone en particulier pour traiter de façon originale les formules existentielles. Les différentes caractéristiques du système vade sont progressivement présentées: le niveau représentation, l'interprétation en logique des défauts et le fonctionnement détaillé d'une première implémentation. Nous présentons enfin une application en sémantique du langage naturel: une ontologie pour le temps est définie, capable de représenter les relations variées qu'entretiennent, dans un récit, les différents événements qui le ponctuent (liens relatifs de datation et de durée, structuration interne).
29

MOUGIN, MORIN MARIE-ODILE. "Thromboses veineuses profondes de l'enfant". Reims, 1991. http://www.theses.fr/1991REIMM013.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
30

DAMIENS, COUTELOUR ISABELLE Thibaut Gilbert. "HYPERHOMOCYSTEINEMIE ET THROMBOSES VEINEUSES PROFONDES". [S.l.] : [s.n.], 2000. http://www.scd.uhp-nancy.fr/docnum/SCDMED_T_2000_DAMIENS_COUTELOUR_ISABELLE.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Goh, Hanlin. "Apprentissage de Représentations Visuelles Profondes". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00948376.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les avancées récentes en apprentissage profond et en traitement d'image présentent l'opportunité d'unifier ces deux champs de recherche complémentaires pour une meilleure résolution du problème de classification d'images dans des catégories sémantiques. L'apprentissage profond apporte au traitement d'image le pouvoir de représentation nécessaire à l'amélioration des performances des méthodes de classification d'images. Cette thèse propose de nouvelles méthodes d'apprentissage de représentations visuelles profondes pour la résolution de cette tache. L'apprentissage profond a été abordé sous deux angles. D'abord nous nous sommes intéressés à l'apprentissage non supervisé de représentations latentes ayant certaines propriétés à partir de données en entrée. Il s'agit ici d'intégrer une connaissance à priori, à travers un terme de régularisation, dans l'apprentissage d'une machine de Boltzmann restreinte. Nous proposons plusieurs formes de régularisation qui induisent différentes propriétés telles que la parcimonie, la sélectivité et l'organisation en structure topographique. Le second aspect consiste au passage graduel de l'apprentissage non supervisé à l'apprentissage supervisé de réseaux profonds. Ce but est réalisé par l'introduction sous forme de supervision, d'une information relative à la catégorie sémantique. Deux nouvelles méthodes sont proposées. Le premier est basé sur une régularisation top-down de réseaux de croyance profonds à base de machines des Boltzmann restreintes. Le second optimise un cout intégrant un critère de reconstruction et un critère de supervision pour l'entrainement d'autoencodeurs profonds. Les méthodes proposées ont été appliquées au problème de classification d'images. Nous avons adopté le modèle sac-de-mots comme modèle de base parce qu'il offre d'importantes possibilités grâce à l'utilisation de descripteurs locaux robustes et de pooling par pyramides spatiales qui prennent en compte l'information spatiale de l'image. L'apprentissage profonds avec agrégation spatiale est utilisé pour apprendre un dictionnaire hiérarchique pour l'encodage de représentations visuelles de niveau intermédiaire. Cette méthode donne des résultats très compétitifs en classification de scènes et d'images. Les dictionnaires visuels appris contiennent diverses informations non-redondantes ayant une structure spatiale cohérente. L'inférence est aussi très rapide. Nous avons par la suite optimisé l'étape de pooling sur la base du codage produit par le dictionnaire hiérarchique précédemment appris en introduisant introduit une nouvelle paramétrisation dérivable de l'opération de pooling qui permet un apprentissage par descente de gradient utilisant l'algorithme de rétro-propagation. Ceci est la première tentative d'unification de l'apprentissage profond et du modèle de sac de mots. Bien que cette fusion puisse sembler évidente, l'union de plusieurs aspects de l'apprentissage profond de représentations visuelles demeure une tache complexe à bien des égards et requiert encore un effort de recherche important.
32

Karaca, Murat Abdullah. "Stabilité des tunnels à faible profondeur en milieu discontinu /". [S.l.] : [s.n.], 1991. http://library.epfl.ch/theses/?nr=945.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Djebali, Mourad. "Segmentation des images de profondeur utilisant les analyses multirésolution". Lyon 1, 1998. http://www.theses.fr/1998LYO19012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Reconstruire le modele surfacique d'un objet, a partir d'une image de profondeur, est l'un des problemes qui se posent dans le cadre de la reconstruction tridimensionnelle. La segmentation est l'une des parties les plus critiques de la reconstruction tridimensionnelle. Elle consiste a subdiviser l'image de profondeur en un ensemble fini de regions, ou chacune d'elles est approchee par une surface simple. Dans ce memoire, nous proposons un algorithme de segmentation de type croissance de regions. Cet algorithme est base sur l'approximation des points de l'image par des surfaces polynomiales simples (planes ou quadriques). Il se compose de deux phases : une phase qui calcule une partition initiale et une phase de fusion qui affine cette partition afin d'obtenir une segmentation appropriee de l'image. L'apport de cette methode reside dans la demarche algorithmique suivie dans la conception de la phase de fusion. Cette demarche consiste a decouper cette phase en deux etapes, assurant une fusion progressive des regions selon des criteres d'approximations au sens des moindres carres, et reduisant les fusions qui conduisent a une segmentation ne respectant pas les proprietes de l'objet represente par l'image. Bien que cet algorithme presente une nouvelle demarche algorithmique, son temps de calcul demeure important, surtout pour des images de grande taille. Pour pallier cet inconvenient, notre idee est de l'appliquer au resultat de decomposition de l'image a une resolution faible. Pour que le resultat de la segmentation a une echelle reduite soit en concordance avec la nature de l'objet represente par l'image initiale, nous utilisons les analyses multiresolution par coiflets. La propriete de ces analyses sur laquelle nous nous basons est le fait que le resultat de decomposition d'un polynome, de degre inferieur a l'ordre de la coiflet utilisee, a une resolution faible, donne le meme polynome avec des details nuls. Cette propriete est egalement utilisee au sein d'un algorithme de filtrage qui repose sur le fait que les details non nuls resultant de la decomposition d'une image correspondent au bruit contenu dans l'image. L'etape d'initialisation de l'algorithme de segmentation, permet l'obtention d'une partition grossiere de l'image, en calculant les courbures gaussienne et moyenne qui sont fonctions des derivees partielles de l'image. La nature discrete de l'image ainsi que le bruit qu'elle contient influent souvent sur le calcul des derivees partielles. Ainsi, une etude de l'influence d'un bruit additif sur le calcul des derivees partielles de l'image par l'ensemble de filtres optimaux selon les criteres de canny a ete faite dans le but d'estimer les valeurs adequates de leur parametre de controle.
34

PARREIN, PASCALE. "Correlation d'images de profondeur application a l'inspection automatique d'objets". Paris 11, 2001. http://www.theses.fr/2001PA112038.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'inspection automatique d'objets manufactures a haute cadence implique l'acquisition et le traitement des donnees en temps reel avec au bout de l'operation une decision sur la conformite ou non de l'objet fabrique. Dans le cadre de cette etude, on s'est interesse specifiquement aux defauts de forme, en manipulant des images de profondeur acquises avec une camera 3d. Parmi la panoplie des algorithmes existant pour comparer un objet par rapport a un modele, notre choix s'est porte sur la correlation. Pour repondre aux exigences de l'inspection, la correlation doit permettre de deceler et de quantifier des defauts meme de faible amplitude. Elle doit aussi montrer des proprietes d'invariance permettant de limiter les contraintes vis-a-vis du positionnement de l'objet acquis. Differents codages et filtrages ont ete testes a cet effet. Enfin, le dernier aspect de cette etude concerne l'implantation optoelectronique de l'algorithme, avec le recours a des composants standard permettant de diminuer le cout du systeme. Un correlateur de vander lugt comportant deux modulateurs spatiaux de lumiere a cristaux liquides nematiques helicoidaux a ete construit. En depit des contraintes imposees par les modulateurs, on a pu accrediter experimentalement les proprietes interessantes de certains codages, notamment du codage en phase.
35

Crouau, Michel. "Codeurs de temps à profondeur pour chambres à dérive". 63-Aubière : Impr. U.E.R. Sci, 1985. http://catalogue.bnf.fr/ark:/12148/cb36109993v.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Karimi-Jafari, Mehdi. "Comportement transitoire des cavités salines profondes". Phd thesis, Ecole Polytechnique X, 2007. http://pastel.archives-ouvertes.fr/pastel-00003162.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude est consacrée au comportement transitoire des cavités salines profondes. Dans la littérature, les auteurs se sont surtout intéressés au calcul du comportement des cavités salines sous chargement constant ou cyclique et à l'analyse du comportement d'éprouvettes de laboratoire en régime transitoire. Dans cette étude, on s'intéresse aux conséquences de ce dernier pour le comportement des cavités salines. Ainsi, on montre qu'une cavité est un système complexe, siège d'évolutions mécanique, thermique, chimique et hydraulique. L'importance des évolutions transitoires, notamment le rôle du fluage inverse dans l'interprétation de l'essai d'étanchéité dans une cavité saline, est mis en évidence. On caractérise le fluage par une formulation de la loi de c! omportement qui présente l'avantage, d'un point de vue pratique, de ne comporter qu'un nombre réduit de paramètres tout en rendant compte de l'essentiel de ce qui est observé en place. On discute l'apparition de la rupture en traction effective dans une cavité saline soumise à un accroissement rapide de la pression. On développe également un modèle adapté au comportement à très long terme (après abandon). Là aussi un grand nombre de phénomènes, plus ou moins couplés, interviennent, alors que la littérature existante n'en prenait en général en compte que quelques uns, ce qui pouvait conduire à une interprétation inexacte des résultats d'essais d'abandon effectués in situ.
37

Leconte, Mahaut. "Etude phénotypique des cellules endométriosiques profondes". Phd thesis, Université René Descartes - Paris V, 2012. http://tel.archives-ouvertes.fr/tel-00832636.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'endométriose concerne 8 à 10% des femmes en âge de procréer et est responsable de douleurs pelviennes chroniques et d'infertilité. Seule l'exérèse chirurgicale des lésions permet un traitement curatif de la maladie. Dans le cas de l'endométriose profonde avec atteinte rectale la chirurgie est extensive et associée à une morbidité significative. Les traitements médicaux reposent sur une hormonothérapie visant à bloquer la fonction ovarienne dont l'effet n'est que suspensif et transitoire. Il n'existe à ce jour aucun traitement ciblant les mécanismes à l'origine de la maladie. L'objectif de notre travail était d'explorer différents mécanismes potentiellement impliqués dans le développement de la maladie et d'identifier des molécules capables d'intervenir sur ces mécanismes. Dans un premier temps nous avons exploré le phénotype hyperprolifératif des cellules endométriosiques profondes et cherché un lien avec différentes voies métaboliques impliquées dans la prolifération cellulaire telles que le stress oxydant, la voie ERK et la voie Akt. Dans un deuxième temps, nous avons exploré le recrutement des cellules endométriales au sein de la cavité péritonéale au travers de l'interaction CXCR4-CXCL12. Des cultures cellulaires ont été réalisées à partir de prélèvements humains de nodules endométriosiques profonds, d'endomètre eutopique et d'endomètre sain. Des lames histologiques ont été préparées à partir de nodules endométriosiques profonds. Des prélèvements de liquide péritonéal de femmes endométriosiques et de témoins ont été congelés. La prolifération cellulaire a été étudiée par incorporation de thymidine tritiée. La production des FRO a été évaluée par spectrofluorimétrie. La voie ERK a été évaluée par western blot, ELISA et immunohistochimie. La voie Akt été évaluée par western blot et immunohistochimie. Nous avons montré un phénotype hyperprolifératif des cellules endométriosiques profondes en rapport avec une activation de la voie ERK par le biais du stress oxydant et à une activation de la voie Akt. Nous avons montré qu'un anti-oxydant (NAC), un inhibiteur de protéines kinases (A771726), un inhibiteur de Raf (sorafenib), un inhibiteur de mTOR (temsirolimus), un agoniste des cannabinoïdes (WIN 55212-2) et un anti-métabolite (5-FU) pouvaient contôler la prolifération des cellules endométriosiques profondes in vitro et la progression de nodules endométriosiques profonds implantés dans des souris Nudes. L'interaction CXCR4-CXCL12 a été étudiée par western blot, analyse de migration, cytométrie de flux et ELISA. Nous avons montré une attraction spécifique des cellules endométriosiques profondes sur-exprimant le CXCR4 par la chimiokine CXCL12 présente en quantité accrue dans le liquide péritonéal des femmes endométriosiques. En conclusion, nous avons montré que le traitement médical de l'endométriose pouvait être non hormonal et que le stress oxydant, la voie ERK et la voie Akt constituaient de nouvelles pistes thérapeutiques à évaluer dans le cadre d'essais cliniques. Nous avons également montré comment la modification constitutive des cellules de l'endomètre eutopique pouvait favoriser leur recrutement dans la cavité péritonéale.
38

MAAREF, HICHEM. "Caracterisation electronique d'interfaces profondes al/inp". Paris 6, 1990. http://www.theses.fr/1990PA066218.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les proprietes d'interfaces al/inp (hauteur de barriere, distribution d'etats d'interface et densite d'etats de valence du phosphore et de l'aluminium) preparees par differentes manieres (clivage sous ultra-vide ou a l'air, nettoyage chimique suivi ou non d'un bombardement ionique de faible energie et traitement thermique) ont ete etudiees en couplant des methodes electriques: caracteristiques i-v, c-v et spectroscopie de capacite schottky (scs) et une methode physico-chimique: spectroscopie d'emission x induite par electrons (exes). Les spectres d'exes montrent que de fortes perturbations de l'inp sont induites par les differentes methodes de preparation. Ces perturbations sont detectees dans la zone interfaciale analysee qui est de l'ordre de 100 a. Elles sont dues a differents phenomenes: existence de liaisons pendantes (clivage sous ultra-vide), inhomogeneites structurelles (clivage a l'air), amorphisation (nettoyage chimique), presence d'aip et/ou incorporation d'argon (bombardement ionique). Cependant, malgre ces modifications physico-chimiques de la zone interfaciale, la barriere de schottky reste confinee dans une gamme etroite de valeurs (0,35-0,5 ev). Ceci est attribue a la presence systematique d'un etat localise mis en evidence dans le gap par scs en e#c-0,37 ev
39

Tort, Marine. "Dynamique et modélisation des atmosphères profondes". Palaiseau, Ecole polytechnique, 2015. https://pastel.archives-ouvertes.fr/tel-01137840.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les mouvements de l'atmosphère terrestre sont assez bien décrits dans le cadre de l'approximation d'atmosphère mince, qui néglige l'épaisseur de l'atmosphère devant le rayon de la Terre. Titan, le plus grand satellite de Saturne, possède une atmosphère épaisse, le rapport de l'épaisseur par le rayon planétaire atteignant près de 25%. Pour modéliser et comprendre sa circulation générale, il est ainsi préférable voire indispensable de ne pas faire l'approximation de couche mince. Cette thèse résout des problèmes liés à la modélisation de ce type d'atmosphères dites profondes, et aborde des questions visant à la compréhension de leur dynamique. L'approximation de couche mince et l'approximation traditionnelle qui néglige la partie de la force de Coriolis associée à la composante horizontale du vecteur rotation de la planète (appelée également partie non-traditionnelle) semblent indissociables pour satisfaire la conservation du moment cinétique absolu. Nous montrons pourtant qu'il est possible de retenir les termes non-traditionnels sous l'approximation de couche mince tout en satisfaisant les lois de conservation, et ce dans les équations d'Euler compressibles et dans celles de Saint-Venant sur la sphère. Pour certains cas d'écoulements terrestres, étant donné le petit rapport d'aspect, ce nouveau modèle NT est suffisamment précis. Dans ce cas, nous réalisons plusieurs études idéalisées de stabilité de jet zonaux et de turbulence en déclin, dans le cadre de modèles de Saint-Venant et de Boussinesq en prenant en compte la force de Coriolis complète. Nous mettons en évidence les paramètres pour lesquels les effets non-traditionnels sont significatifs et discutons des effets dans des cas réalistes. Pour modéliser la circulation atmosphérique de Titan, nous intégrons les équations quasi-hydrostatiques en levant l'approximation de couche mince dans le coeur dynamique du modèle de circulation générale LMD-Z (Titan). Après avoir identifié la structure Hamiltonienne des équations, nous imitons ce formalisme au niveau discret de manière à conserver l'énergie totale dans le modèle. Divers cas tests sont mis en place afin de valider la stabilité et la précision du nouveau coeur dynamique. Finalement, le nouveau coeur est appliqué à l'atmosphère de Titan. Dans un premier temps une simulation idéalisée est réalisée en partant de vents au repos et en utilisant un rappel newtonien vers une température d'équilibre issue d'un profil vertical mesuré par la sonde Huygens. Des simulations plus réalistes sont mises en place en couplant le c{\oe}ur dynamique profond avec les paramétrisations physiques de LMD-Z (Titan)
Large-scale atmospheric and oceanic motions are fairly well described under the so-called shallow-atmosphere approximation, which neglects the thickness of the atmosphere comparing to the planetary radius. Titan is the biggest moon of Saturn and has a thick atmosphere with an aspect ratio reaching almost 25%. It is then preferable not to make the shallow-atmosphere approximation to model its atmospheric general circulation. This thesis solves problems in modeling of such deep-atmospheres and addresses some issues for understanding their dynamics. The shallow-atmosphere and traditional approximation neglecting the part of the Coriolis force due to the horizontal component of the planetary rotation rate vector (also called as non-traditional part) seem to be inseparable to satisfy the conservation of absolute angular momentum. However, we show that it is possible to retain non-traditional terms under the shallow-atmosphere approximation while satisfying all conservation laws, in the compressible Euler equations as well as in the shallow-water equations on the rotating sphere. In most cases, given the small aspect ratio, this new non-traditional model is accurate. In this case, several idealized zonal jet stability and free evolving turbulence studies have been conducted using shallow-water and Boussinesq models taking into account the complete Coriolis force. We highlight the parameters for which the non-traditional effects are significant and discuss the dynamical effects in realistic cases. To model general circulation of Titan's atmosphere, we integrate the quasi-hydrostatic equations in the dynamical core of the LMD-Z (Titan) atmospheric general circulation model. After identifying the Hamiltonian structure of the equations, we imitate the formulation at discrete level to conserve total energy. Various test cases are performed in order to validate the stability and the accuracy of the new dynamical core. The latter is applied to Titan's atmosphere. Firstly, an idealized simulation is performed starting from an atmosphere at rest and using a Newtonian relaxation. Then more realistic simulations are implemented using parameterizations of LMD-Z (Titan)
40

Schaub, François. "Estimation géostatistique de l'impédance acoustique après migration prestack en profondeur". Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00002987.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but de cette thèse est d'exploiter au mieux les résultats du traitement des données sismiques en profondeur pour réaliser une simulation géostatistique de l'impédance acoustique. La base de la prospection géophysique est la sismique réflexion, une méthode qui fournit les coefficients de réflexion des interfaces géologiques. Ces coefficients fournissent des informations sur la structure du sous-sol et permettent d'estimer les propriétés pétro-acoustiques de chacune des couches géologiques. Nous utilisons une méthode d'imagerie (la migration) qui permet d'obtenir des données sismiques migrées en profondeur, dont les variations de réflectivité selon l'angle sont conservées. L'analyse de ces variations est alors effectuée sur les panneaux Iso-X le long de trajectoires définies par la variation de la réflectivité avec l'angle d'incidence. Ces trajectoires permettent d'obtenir une première interprétation structurale (le squelette) à laquelle sont associés des attributs tels l'intercept et le gradient. Un pointé sur ces deux squelettes complémentaires permet de délimiter des couches dans lesquelles la simulation sera effectuée. Après avoir interprété sur les sections sismiques et d'autres attributs des éventuelles anomalies en hydrocarbures, nous proposons de contraindre localement la simulation géostatistique pour reproduire ces anomalies. Pour cela, nous nous servons du lien qui existe entre l'impédance acoustique et l'intercept. Nous obtenons finalement une section en impédance acoustique en profondeur, valable sur la globalité de la section étudiée, et qui tient compte des anomalies d'hydrocarbures importantes pour l'éventuelle exploration et production du réservoir.
41

Tête, Claire. "Profondeur, dimension et résolutions en algèbre commutative : quelques aspects effectifs". Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2288/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse d'algèbre commutative porte principalement sur la théorie de la profondeur. Nous nous efforçons d'en fournir une approche épurée d'hypothèse noethérienne dans l'espoir d'échapper aux idéaux premiers et ceci afin de manier des objets élémentaires et explicites. Parmi ces objets, figurent les complexes algébriques de Koszul et de Cech dont nous étudions les propriétés cohomologiques grâce à des résultats simples portant sur la cohomologie du totalisé d'un bicomplexe. Dans le cadre de la cohomologie de Cech, nous avons établi la longue suite exacte de Mayer-Vietoris avec un traitement reposant uniquement sur le maniement des éléments. Une autre notion importante est celle de dimension de Krull. Sa caractérisation en termes de monoïdes bords permet de montrer de manière expéditive le théorème d'annulation de Grothendieck en cohomologie de Cech. Nous fournissons également un algorithme permettant de compléter un polynôme homogène en un h.s.o.p.. La profondeur est intimement liée à la théorie des résolutions libres/projectives finies, en témoigne le théorème de Ferrand-Vasconcelos dont nous rapportons une généralisation due à Jouanolou. Par ailleurs, nous revenons sur des résultats faisant intervenir la profondeur des idéaux caractéristiques d'une résolution libre finie. Nous revisitons, dans un cas particulier, une construction due à Tate permettant d'expliciter une résolution projective totalement effective de l'idéal d'un point lisse d'une hypersurface. Enfin, nous abordons la théorie de la régularité en dimension 1 via l'étude des idéaux inversibles et fournissons un algorithme implémenté en Magma calculant l'anneau des entiers d'un corps de nombres
This Commutative Algebra thesis focuses mainly on the depth theory. We try to provide an approach without noetherian hypothesis in order to escape prime ideals and to handle only basic and explicit concepts. We study the algebraic complexes of Koszul and Cech and their cohomological properties by using simple results on the cohomology of the totalization of a bicomplex. In the Cech cohomology context we established the long exact sequence of Mayer-Vietoris only with a treatment based on the elements. Another important concept is that of Krull dimension. Its characterization in terms of monoids allows us to show expeditiously the vanishing Grothendieck theorem in Cech cohomology.We also provide an algorithm to complete a omogeneous polynomial in a h.s.o.p.. The depth is closely related to the theory of finite free/projective resolutions. We report a generalization of the Ferrand-Vasconcelos theorem due to Jouanolou. In addition, we review some results involving the depth of the ideals of expected ranks in a finite free resolution.We revisit, in a particular case, a construction due to Tate. This allows us to give an effective projective resolution of the ideal of a point of a smooth hypersurface. Finally, we discuss the regularity theory in dimension 1 by studying invertible ideals and provide an algorithm implemented in Magma computing the ring of integers of a number field
42

Mora, Elie Gabriel. "Codage multi-vues multi-profondeur pour de nouveaux services multimédia". Phd thesis, Telecom ParisTech, 2014. http://tel.archives-ouvertes.fr/tel-01061005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux effectués durant cette thèse de doctorat ont pour but d'augmenter l'efficacité de codage dans 3D-HEVC. Nous proposons des approches conventionnelles orientées vers la normalisation vidéo, ainsi que des approches en rupture basées sur le flot optique. En approches conventionnelles, nous proposons une méthode qui prédit les modes Intra de profondeur avec ceux de texture. L'héritage est conditionné par un critère qui mesure le degré de similitude entre les deux modes. Ensuite, nous proposons deux méthodes pour améliorer la prédiction inter-vue du mouvement dans 3D-HEVC. La première ajoute un vecteur de disparité comme candidat inter-vue dans la liste des candidats du Merge, et la seconde modifie le processus de dérivation de ce vecteur. Finalement, un outil de codage intercomposantes est proposé, où le lien entre les arbres quaternaires de texture et de profondeur est exploité pour réduire le temps d'encodage et le débit, à travers un codage conjoint des deux arbres. Dans la catégorie des approches en rupture, nous proposons deux méthodes basées sur l'estimation de champs denses de vecteurs de mouvement en utilisant le flot optique. La première calcule un champ au niveau d'une vue de base reconstruite, puis l'extrapole au niveau d'une vue dépendante, où il est hérité par les unités de prédiction en tant que candidat dense du Merge. La deuxième méthode améliore la synthèse de vues : quatre champs sont calculés au niveau de deux vues de référence en utilisant deux références temporelles. Ils sont ensuite extrapolés au niveau d'une vue synthétisée et corrigés en utilisant une contrainte épipolaire. Les quatre prédictions correspondantes sont ensuite combinées. Les deux méthodes apportent des gains de codage significatifs, qui confirment le potentiel de ces solutions innovantes.
43

Gayral, Françoise. "Sémantique du langage naturel et profondeur variable : Une première approche". Paris 13, 1992. http://www.theses.fr/1992PA132004.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail que nous présentons concerne la sémantique du langage naturel. Il se situe dans le cadre de ce que la tradition informatique appelle compréhension du langage naturel. Apres avoir tenté de cerner les enjeux de cette discipline et avoir analysé les différents courants existants, nous présentons un système: le système à profondeur variable. Celui-ci s'appuie sur un appareil logique, précisément une logique non monotone. Les nombreuses connaissances exigées dans le processus de compréhension d'un texte sont représentées dans le système grâce à un ensemble de concepts et de règles. Nous montrons sur trois applications en quoi ce système apporte des éléments de réponse intéressants à certains problèmes sémantiques. Une application concerne l'élaboration d'une ontologie temporelle pour un traitement sémantique de récits en langage naturel. Cette ontologie rend compte des phénomènes temporels de la langue et concrétise cette capacité de la langue à multiplier les points de vue sur une entité temporelle. Une autre tente, sur un court texte, un travail sémantique complet prenant en compte de manière homogène les différents types de connaissances, du lexique aux connaissances du monde. Enfin, nous traitons d'un corpus composé de textes de constats d'accident de voiture. Nous cherchons à reproduire un raisonnement physique de sens commun qui semble souvent loin d'un raisonnement de physique traditionnelle et nous formalisons, pour cela, des éléments d'une physique naïve adaptée à ces textes.
44

Akhavanbahabadi, Saeed. "Analyse des Crises d’Epilepsie à l’Aide de Mesures de Profondeur". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT063.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le doctorant n'a pas délivré de résumé en français
Absence epilepsy syndrome is accompanied with sudden appearance of seizures in different regions of the brain. The sudden generalization of absence seizures to every region of the brain shows the existence of a mechanism which can quickly synchronizes the activities of the majority of neurons in the brain. The presence of such a mechanism challenges our information about the integrative properties of neurons and the functional connectivity of brain networks. For this reason, many researchers have tried to recognize the main origin of absence seizures. Recent studies have suggested a theory regarding the origin of absence seizures which states that somatosensory cortex drives the thalamus during the first cycles of absence seizures, while thereafter, cortex and thalamus mutually drive each other and continue absence seizures.This theory motivated the neuroscientists in Grenoble Institute of Neurosciences (GIN) to record data from different layers of somatosensory cortex of Genetic Absence Epilepsy Rats from Strasbourg (GAERS), which is a well-validate animal model for absence epilepsy, to explore the main starting region of absence seizures locally. An electrode with E = 16 sensors was vertically implanted in somatosensory cortex of GAERS, and potentials were recorded. In this study, we aim to localize the onset layers of somatosensory cortex during absence seizures and investigate the temporal evolution and dynamics of absence seizures using the recorded data. It is worth mentioning that all previous studies have investigated absence seizures using the data recorded from different regions of the brain, while this is the first study that performs the local exploration of absence seizures using the data recorded from different layers of somatosensory cortex, i.e., the main starting region of absence seizures.Using factor analysis, source separation, and blind deconvolution methods in different scenarios, we show that 1) the top and bottom layers of somatosensory cortex activate more than the other layers during absence seizures, 2) there is a background epileptic activity during absence seizures, 3) there are few activities or states which randomly activate with the background epileptic activity to generate the absence seizures, and 4) one of these states is dominant, and the others are unstable
45

Tezenas, du montcel Thibaut. "Évitement d'obstacles pour quadrirotors en utilisant un capteur de profondeur". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT077.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sécurité est l'une des préoccupations majeures en robotique et ce autant dans le but de protéger le robot que dans le but de protéger son environnement. Parmi les fonctionnalités relevant de la sécurité, l'évitement d'obstacles est prisée car elle permet de faire évoluer un robot de manière autonome dans un environnement non contrôlé. Cette thèse s'articule autour de cette fonctionnalité d'évitement d'obstacles pour un type de robot spécifique, le quadrirotor. Deux algorithmes d'évitement d'obstacles seront ainsi présentés. Le premier sera quasiment exclusivement l'agrégat d'éléments présentés indépendamment les uns des autres dans la littérature récente dédiée aux quadrirotors. Le deuxième algorithme présentera une nouveauté, un filtrage spatial sur les coûts associés aux différentes trajectoires générées, qui permet d'améliorer les performances d'évitement. Ces deux algorithmes utiliseront un unique capteur de profondeur et se baseront, notamment, sur la platitude des quadrirotors et sur l'utilisation d'une carte de profondeur locale donnant une information sur 360degree.L'autre contribution de cette thèse réside dans la création du benchmark BOARR qui a été développé pour effectuer des tests d'évitement d'obstacles en simulation. Ce benchmark a été construit pour tenter de simuler au mieux un des problèmes présent à de multiples reprises dans la littérature : la navigation dans une forêt dense avec un quadrirotor d'environ SI{500}{g}. Ce benchmark est disponible en open-source et l'auteur de cette thèse espère, grâce à cet outil, augmenter la qualité des tests effectués sur la capacité d'évitement d'obstacles qui est, on le rappelle, une fonctionnalité de sécurité et qui nécessite donc des tests rigoureux
Safety is a major concern in robotics to protect both the robot and its environment. Among the fonctionalities related to safety, obstacle avoidance is looked for since it allows autonomous navigation in unknown environments. This thesis is built around this obstacle avoidance functionnality for a specific type of robots, quadrotors. Two obstacle avoidance algorithms are presented. The first one is the aggregation of recent researchs dedicated to quadrotors but presented in various contexts. The second algorithm includes a novel feature, a spatial filter on costs associated to generated trajectories, which improves the overall performances in avoiding obstacles. Both algorithms use a single RGBD sensor et are based, among other things, on differential flatness and on a representation of the environment that we call an egocubemap. During the thesis, the quality of the tests there were used to cheracterize the algorithms was one of the major concern. It led to the creation of the BOARR benchmark. This benchmark has been developped as an attempt to simulate the most common test environment for quadrotor obstacle avoidance : a forest. This benchmark is available online and is open source. It aims at increasing the quality of the tests used when characterizing the performances of obstacle avoidance algorithms which are related to safety and therefore deserve extended testings
46

Gauvin, François. "La profondeur des possibles : Heidegger et l'histoire (1915-1936/38)". Paris 10, 2004. http://www.theses.fr/2004PA100011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail porte sur l'évolution de la conception heideggérienne de l'histoire depuis ses premières recherches logiques des années 1910 jusqu'au second opus magnum, les Beiträge zur Philosophie (Vom Ereignis) rédigés entre 1936 et 1938. Il se concentre sur la "fonction" que Heidegger attribue à l'histoire pour définir chaque fois la tâche de la philosophie et de la pensée. Dans chacune des quatre phases analysées, l'interprétation de l'histoire que développe Heidegger s'associe étroitement à une critique de la logique comme lieu traditionnel de la vérité. Notre enquête débouche sur la nécessité de remettre en cause les présupposés à l'œuvre dans la tentative heideggérienne de sauvegarder un espace de réflexion fondamentale à l'ère de la Technique
This work analyses the evolution of the heideggerian concept of history from the early researches on logics in the 1910th until the second opus magnum, the Beiträge zur Philosophie (Vom Ereignis) written between 1936 and 1938. It focuses on the "function" played by history when Heidegger defines the task of philosophy and thinking. In each of the four analyzed period, the interpretation of history developed by Heidegger is intrinsically connected with a critic of logics as traditional site of truth. Our investigation ends on the necessity to critically revaluate the presuppositions at work in the heideggerian attempt to maintain a place for fundamental reflection in the age of Technology
47

Schaub, François. "Estimation géostatistique de l’impédance acoustique après migration prestack en profondeur". Paris, ENMP, 2007. http://www.theses.fr/2007ENMP1449.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but de cette thèse est d’exploiter au mieux les résultats du traitement des données sismiques en profondeur pour réaliser une simulation géostatistique de l’impédance acoustique. La base de la prospection géophysique est la sismique réflexion, une méthode qui fournit les coefficients de réflexion des interfaces géologiques. Ces coefficients fournissent des informations sur la structure du sous-sol et permettent d’estimer les propriétés pétro-acoustiques de chacune des couches géologiques. Nous utilisons une méthode d’imagerie (la migration) qui permet d’obtenir des données sismiques migrées en profondeur, dont les variations de réflectivité selon l’angle sont conservées. L’analyse de ces variations est alors effectuée sur les panneaux Iso-X le long de trajectoires définies par la variation de la réflectivité avec l’angle d’incidence. Ces trajectoires permettent d’obtenir une première interprétation structurale (le squelette) à laquelle sont associés des attributs tels l’intercept et le gradient. Un pointé sur ces deux squelettes complémentaires permet de délimiter des couches dans lesquelles la simulation sera effectuée. Après avoir interprété sur les sections sismiques et d’autres attributs des éventuelles anomalies en hydrocarbures, nous proposons de contraindre localement la simulation géostatistique pour reproduire ces anomalies. Pour cela, nous nous servons du lien qui existe entre l’impédance acoustique et l’intercept. Nous obtenons finalement une section en impédance acoustique en profondeur, valable sur la globalité de la section étudiée, et qui tient compte des anomalies d’hydrocarbures importantes pour l’éventuelle exploration et production du réservoir
One of the main goal of geosciences in the petroleum industry is to build accurate and predictive reservoir models, expressed in terms of properties such as geological facies, porosity or acoustic impedance. The seismic reflection technique, at the base of geophysical prospecting, provides the reflection coefficients associated to the geological interfaces. These coefficients give information about the subsurface structures and allow us to estimate the layers petroacoustic properties. We use a preserved amplitude prestack depth migration which gives the depth migrated seismic data, where reflectivity variations versus angle are conserved. The variation analysis is done with the common image gathers sections along trajectories defined by the reflectivity variations with the angle. These trajectories provide a geology depth structural interpretation (the skeleton) with two major AVA attributes: intercept and gradient. A horizon picking phase using both skeletons defines the intervals where the simulation will be achieved. Then, after the interpretation of the hydrocarbons anomalies over the seismic and AVA attributes sections, we propose to locally constrain the geostatistical simulation in order to reproduce these anomalies. To handle it, we use the relationship between the acoustic impedance and the intercept. This method finally provides a depth acoustic impedance section, valid over the whole studied area, which contains the hydrocarbon anomalies for a possible oil and gas exploration & production
48

Dias, Jérôme. "Profondeur par la couleur : analyse spatio-spectrale d'un système chromatique". Thesis, Grenoble, 2013. https://tel.archives-ouvertes.fr/tel-03210653.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La profondeur est une information importante en complément d'une image couleur, pour interpréter le contenu d'une scène. Nous proposons un système d'imagerie chromatique pour acquérir en simultané ces deux informations. Celui-ci se compose d'une optique présentant du chromatisme longitudinal qui a pour propriété d'effectuer un filtrage spatio-spectral, variable en fonction de la profondeur des objets qui composent la scène. Ce filtrage génère un flou image dépendant de la longueur d'onde et de la profondeur. Pour mesurer ce flou, on a généralement recours à un capteur d'image revêtu d'une mosaïque de filtres dite de Bayer, conçu pour l'acquisition d'image couleur. Il est montré qu'une analyse par couleur (RGB) de la dispersion spatiale d'une telle image, permet d'estimer la profondeur sans ambiguïté et de reconstituer l'image couleur nette correspondante. Cependant cette méthode est efficace pour reconstituer l'image couleur nette mais ne permet d'obtenir qu'une faible précision de profondeur. Pour améliorer cette précision, nous proposons un système d'imagerie chromatique différent, composé d'un capteur revêtu d'une mosaïque de filtres adaptée à l'acquisition d'une image spectrale.Nous avons établi un modèle spectral permettant de simuler l'image mosaïque acquise à partir d'un tel système. Puis nous avons mis en place une procédure d'analyse spatio-spectrale, afin d'estimer conjointement la profondeur et l'image couleur nette des objets de la scène correspondante. A partir de celle-ci nous avons établi deux algorithmes d'estimation basés sur un problème inverse. Le premier inclut les paramètres physiques du système alors que le second est appliqué de manière aveugle à partir d'une base de données d'images. Un démonstrateur système a été réalisé pour évaluer les performances expérimentales de ces méthodes, pour différents types de scènes.Les algorithmes développés montrent qu'il est possible d'améliorer la précision de l'estimation de profondeur d'un système chromatique, en effectuant une analyse multispectrale. Cette approche ne nuit pas à la qualité de l'image couleur reconstruite. De plus, le premier algorithme mis en place nous a permis d'établir un critère pouvant être utilisé pour optimiser les paramètres systèmes, en fonction de l'application souhaitée
Like color, depth is a very useful information to interpret the content of a scene. Depth can be estimated from an acquisition obtained with a chromatic imaging system. It consists of an optical system with an axial chromatic aberration. This aberration creates an image blur that depends on the wavelength and the depth. To measure this, an image sensor with a Bayer color filter array, particularly suitable for color image acquisition, is generally used. It has been shown that a color (RGB) analysis of the spatial dispersion of such image enabled unambiguous estimation of the depth map and a corresponding sharp color image of the given scene. However, this method is more suitable for EDOFs applications as it reconstructs a sharp color image and provides a low depth accuracy.To improve this technique we propose a different chromatic imaging system, consisting of an image sensor coated with a color customized filter array, suitable to acquire spectral image. In this perspective, we have established a spectral model to simulate the mosaic image. Then we have developed a procedure for spatio-spectral analysis applied to this image, to jointly estimate the depth and the sharp color image of the corresponding scene.From this, two estimation algorithms based on inverse problem solving have been proposed and implemented. The first includes the physical system parameters while the second is a blind approach applied learnt from an images database.An experimental system has been designed, qualified and built to evaluate the real performance of these two methods, for different scenes. The developed algorithms show that it is possible to improve the depth estimation accuracy with a chromatic imaging system, by performing a multispectral analysis. This approach does not affect the reconstructed sharp color image quality. In addition, the first algorithm allowed us to establish an optimization criterion to find the optimal system parameters, for a desired application
49

Kahalerras, Henda. "Etude expérimentale de la profondeur de la cascade de l'intermittence". Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE10119.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'evolution de l'intermittence a travers les echelles en turbulence pleinement developpe a ete mesuree par un parametre appele profondeur de la cascade de l'intermittence. L'etude experimentale a consiste a mesurer deux types d'increments de vitesse : longitudinaux et transversaux dans divers ecoulements turbulents et pour une large gamme de nombres de reynolds. L'etude des fonctions de structure a montre que le champ de vitesse n'est pas invariant d'echelle mais admet neanmoins une autosimilarite interne. Une methode des cumulants a ete utilisee pour la premiere fois afin de determiner les trois premiers cumulants (le deuxieme etant la profondeur de la cascade). Les mesures indiquent que ces cumulants sont proportionnels entre eux, au moins pour les echelles inertielles, confirmant ainsi l'hypothese du modele variationnal, a savoir que la cascade de l'intermittence peut etre modelisee par un processus indefiniment divisible. Les deux premiers cumulants presentent une loi de puissance avec l'echelle dont l'exposant evolue de facon universelle avec le nombre de reynolds, ce dernier represente le taux de variation de la profondeur de la cascade de l'intermittence. L'utilisation de cet exposant au concept de la log-similarite a permis de regrouper spectres, fonctions de structure et les deux premiers cumulants a differents nombres de reynolds sur une courbe unique. Enfin, les mesures suggerent qu'en ecoulement stationnaire et localement homogene, les increments transversaux et longitudinaux de vitesse possedent globalement les memes proprietes statistiques et ce independamment du type d'ecoulement et du nombre de reynolds.
50

Moukari, Michel. "Estimation de profondeur à partir d'images monoculaires par apprentissage profond". Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC211/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La vision par ordinateur est une branche de l'intelligence artificielle dont le but est de permettre à une machine d'analyser, de traiter et de comprendre le contenu d'images numériques. La compréhension de scène en particulier est un enjeu majeur en vision par ordinateur. Elle passe par une caractérisation à la fois sémantique et structurelle de l'image, permettant d'une part d'en décrire le contenu et, d'autre part, d'en comprendre la géométrie. Cependant tandis que l'espace réel est de nature tridimensionnelle, l'image qui le représente, elle, est bidimensionnelle. Une partie de l'information 3D est donc perdue lors du processus de formation de l'image et il est d'autant plus complexe de décrire la géométrie d'une scène à partir d'images 2D de celle-ci.Il existe plusieurs manières de retrouver l'information de profondeur perdue lors de la formation de l'image. Dans cette thèse nous nous intéressons à l’estimation d'une carte de profondeur étant donné une seule image de la scène. Dans ce cas, l'information de profondeur correspond, pour chaque pixel, à la distance entre la caméra et l'objet représenté en ce pixel. L'estimation automatique d'une carte de distances de la scène à partir d'une image est en effet une brique algorithmique critique dans de très nombreux domaines, en particulier celui des véhicules autonomes (détection d’obstacles, aide à la navigation).Bien que le problème de l'estimation de profondeur à partir d'une seule image soit un problème difficile et intrinsèquement mal posé, nous savons que l'Homme peut apprécier les distances avec un seul œil. Cette capacité n'est pas innée mais acquise et elle est possible en grande partie grâce à l'identification d'indices reflétant la connaissance a priori des objets qui nous entourent. Par ailleurs, nous savons que des algorithmes d'apprentissage peuvent extraire ces indices directement depuis des images. Nous nous intéressons en particulier aux méthodes d’apprentissage statistique basées sur des réseaux de neurones profond qui ont récemment permis des percées majeures dans de nombreux domaines et nous étudions le cas de l'estimation de profondeur monoculaire
Computer vision is a branch of artificial intelligence whose purpose is to enable a machine to analyze, process and understand the content of digital images. Scene understanding in particular is a major issue in computer vision. It goes through a semantic and structural characterization of the image, on one hand to describe its content and, on the other hand, to understand its geometry. However, while the real space is three-dimensional, the image representing it is two-dimensional. Part of the 3D information is thus lost during the process of image formation and it is therefore non trivial to describe the geometry of a scene from 2D images of it.There are several ways to retrieve the depth information lost in the image. In this thesis we are interested in estimating a depth map given a single image of the scene. In this case, the depth information corresponds, for each pixel, to the distance between the camera and the object represented in this pixel. The automatic estimation of a distance map of the scene from an image is indeed a critical algorithmic brick in a very large number of domains, in particular that of autonomous vehicles (obstacle detection, navigation aids).Although the problem of estimating depth from a single image is a difficult and inherently ill-posed problem, we know that humans can appreciate distances with one eye. This capacity is not innate but acquired and made possible mostly thanks to the identification of indices reflecting the prior knowledge of the surrounding objects. Moreover, we know that learning algorithms can extract these clues directly from images. We are particularly interested in statistical learning methods based on deep neural networks that have recently led to major breakthroughs in many fields and we are studying the case of the monocular depth estimation

Vai alla bibliografia