To see the other types of publications on this topic, follow the link: Calcul de points de fuite.

Dissertations / Theses on the topic 'Calcul de points de fuite'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 48 dissertations / theses for your research on the topic 'Calcul de points de fuite.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Elassam, Abdelkarim. "Learning-based vanishing point detection and its application to large-baseline image registration." Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0084.

Full text
Abstract:
Cette thèse étudie la détection des points de fuite et de la ligne d'horizon ainsi que leur application à des tâches de localisation visuelle en environnement urbain. La localisation visuelle est un problème fondamental de vision par ordinateur qui vise à déterminer la position et l'orientation d'une caméra dans un environnement en se basant uniquement sur des informations visuelles. En environnements urbains et manufacturés, les points de fuite sont des repères visuels qui apportent des informations importantes sur la structure de la scène et leur détection est donc importante pour les tâches de reconstruction et de localisation. La thèse propose de nouvelles méthodes d'apprentissage profond pour surmonter les limites des approches existantes de détection de points de fuite. La première contribution clé introduit une nouvelle approche pour la détection de lignes d'horizon et de points de fuite. Contrairement à la plupart des méthodes existantes, cette méthode infère simultanément la ligne d'horizon et un nombre illimité de points de fuite horizontaux, même ceux s'étendant au-delà du cadre de l'image. La deuxième contribution clé de cette thèse est un détecteur de points de fuite amélioré par les structures de la scène. Cette méthode utilise un cadre d'apprentissage multitâche pour estimer plusieurs points de fuite horizontaux et générer les masques des structures planaires verticales correspondants à chaque point de fuite. Notre méthode fournit ainsi des informations essentielles sur la configuration de la scène. Contrairement aux méthodes existantes, cette approche exploite les informations contextuelles et les structures de la scène pour une estimation précise sans s'appuyer sur les lignes détectées. Les résultats expérimentaux démontrent que cette méthode surpasse les méthodes traditionnelles basées sur les lignes et les méthodes modernes basées sur l'apprentissage profond. La thèse explore ensuite l'utilisation des points de fuite pour la mise en correspondance et le recalage d'images, en particulier dans le cas où les images sont prises depuis des points de vue très différents. Malgré les progrès continus sur les extracteurs et les descripteurs d'indices, ces méthodes sont souvent inopérantes en présence de fortes variations d'échelle ou de points de vue. Les méthodes proposées relèvent ce défi en incorporant les points de fuite et les structures de la scène. L'un des défis majeurs liés à l'utilisation des points de fuite pour le recalage consiste à établir des correspondances fiables, en particulier dans des scénarios à large base. Ce travail relève ce défi en proposant une méthode de détection de points de fuite aidée par la détection des masques de structures verticales de scène correspondant à ces points de fuite. À notre connaissance, il s'agit de la première implémentation d'une méthode pour la mise en correspondance des points de fuite qui exploite le contenu de l'image et non seulement les segments détectés. Cette correspondance de points de fuite facilite l'estimation de la rotation relative de la caméra, en particulier dans les scénarios à large base. De plus, l'incorporation d'informations des structures de la scène permet une correspondance plus fiable des points clés au sein de ces structures. Par conséquent, la méthode facilite l'estimation de la translation relative, qui est contrainte elle-même par la rotation dérivée des points de fuite. La qualité de la rotation peut cependant parfois être impactée par l'imprécision des points de fuite détectés. Nous proposons donc une méthode de mise en correspondance d'image guidée par les points de fuite, qui est beaucoup moins sensible à la précision de détection des points de fuite
This thesis examines the detection of vanishing points and the horizon line and their application to visual localization tasks in urban environments. Visual localization is a fundamental problem in computer vision that aims to determine the position and orientation of a camera in an environment based solely on visual information. In urban and manufactured environments, vanishing points are important visual landmarks that provide crucial information about the scene's structure, making their detection important for reconstruction and localization tasks. The thesis proposes new deep learning methods to overcome the limitations of existing approaches to vanishing point detection. The first key contribution introduces a novel approach for HL and VP detection. Unlike most existing methods, this method directly infers both the HL and an unlimited number of horizontal VPs, even those extending beyond the image frame. The second key contribution of this thesis is a structure-enhanced VP detector. This method utilizes a multi-task learning framework to estimate multiple horizontal VPs from a single image. It goes beyond simple VP detection by generating masks that identify vertical planar structures corresponding to each VP, providing valuable scene layout information. Unlike existing methods, this approach leverages contextual information and scene structures for accurate estimation without relying on detected lines. Experimental results demonstrate that this method outperforms traditional line-based methods and modern deep learning-based methods. The thesis then explores the use of vanishing points for image matching and registration, particularly in cases where images are captured from vastly different viewpoints. Despite continuous progress in feature extractors and descriptors, these methods often fail in the presence of significant scale or viewpoint variations. The proposed methods address this challenge by incorporating vanishing points and scene structures. One major challenge in using vanishing points for registration is establishing reliable correspondences, especially in large-scale scenarios. This work addresses this challenge by proposing a vanishing point detection method aided by the detection of masks of vertical scene structures corresponding to these vanishing points. To our knowledge, this is the first implementation of a method for vanishing point matching that exploits image content rather than just detected segments. This vanishing point correspondence facilitates the estimation of the camera's relative rotation, particularly in large-scale scenarios. Additionally, incorporating information from scene structures enables more reliable keypoint correspondence within these structures. Consequently, the method facilitates the estimation of relative translation, which is itself constrained by the rotation derived from the vanishing points. The quality of rotation can sometimes be impacted by the imprecision of detected vanishing points. Therefore, we propose a vanishing point-guided image matching method that is much less sensitive to the accuracy of vanishing point detection
APA, Harvard, Vancouver, ISO, and other styles
2

Riffaut, Antonin. "Calcul effectif de points spéciaux." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0100/document.

Full text
Abstract:
À partir du théorème d’André en 1998, qui est la première contribution non triviale à la conjecture de André-Oort sur les sous-variétés spéciales des variétés de Shimura, la principale problématique de cette thèse est d’étudier les propriétés diophantiennes des modules singuliers, en caractérisant les points de multiplication complexe (x; y) satisfaisant un type d’équation donné de la forme F(x; y) = 0, pour un polynôme irréductible F(X; Y ) à coefficients complexes. Plus spécifiquement, nous traitons deux équations impliquant des puissances de modules singuliers. D’une part, nous montrons que deux modules singuliers x; y tels que les nombres 1, xm et yn soient linéairement dépendants sur Q, pour des entiers strictement positifs m; n, doivent être de degré au plus 2, ce qui généralise un résultat d’Allombert, Bilu et Pizarro-Madariaga, qui ont étudié les points de multiplication complexe appartenant aux droites de C2 définies sur Q. D’autre part, nous montrons que, sauf cas “évidents”, le produit de n’importe quelles puissances entières de deux modules singuliers ne peut être un nombre rationnel non nul, ce qui généralise un résultat de Bilu, Luca et Pizarro- Madariaga, qui ont ont étudié les points de multiplication complexe appartenant aux hyperboles xy = A, où A 2 Qx. Les méthodes que nous développons reposent en grande partie sur les propriétés des corps de classes engendrés par les modules singuliers, les estimations de la fonction j-invariant et les estimations des formes linéaires logarithmiques. Nous déterminons également les corps engendrés par les sommes et les produits de deux modules singuliers x et y : nous montrons que le corps Q(x; y) est engendré par la somme x + y, à moins que x et y soient conjugués sur Q, auquel cas x + y engendre un sous-corps de degré au plus 2 ; le même résultat demeure pour le produit xy. Nos preuves sont assistées par le logiciel PARI/GP, que nous utilisons pour procéder à des vérifications dans des cas particuliers explicites
Starting for André’s Theorem in 1998, which is the first non-trivial contribution to the celebrated André-Oort conjecture on the special subvarieties of Shimura varieties, the main purpose of this thesis is to study Diophantine properties of singular moduli, by characterizing CM-points (x; y) satisfying a given type of equation of the form F(x; y) = 0, for an irreducible polynomial F(X; Y ) with complex coefficients. More specifically, we treat two different equations involving powers of singular moduli. On the one hand, we show that two distinct singular moduli x; y such that the numbers 1, xm and yn are linearly dependent over Q, for some positive integers m; n, must be of degree at most 2. This partially generalizes a result of Allombert, Bilu and Pizarro-Madariaga, who studied CM-points belonging to straight lines in C2 defined over Q. On the other hand, we show that, with “obvious” exceptions, the product of any two powers of singular moduli cannot be a non-zero rational number. This generalizes a result of Bilu, Luca and Pizarro-Madariaga, who studied CM-points belonging to hyperbolas xy = A, where A 2 Qx. The methods we develop lie mainly on the properties of ring class fields generated by singular moduli, on estimations of the j-function and on estimations of linear forms in logarithms. We also determine fields generated by sums and products of two singular moduli x and y : we show that the field Q(x; y) is generated by the sum x + y, unless x and y are conjugate over Q, in which case x + y generate a subfield of degree at most 2 ; the same holds for the product xy. Our proofs are assisted by the PARI/GP package, which we use to proceed to verifications in particular explicit cases
APA, Harvard, Vancouver, ISO, and other styles
3

Audebaud, Christian-Philippe. "Extension du calcul des constructions par points fixes." Bordeaux 1, 1992. http://www.theses.fr/1992BOR10506.

Full text
Abstract:
S'appuyant sur la these definition recursive=construction par point fixe, constable et smith ont propose une extension de nuprl permettant de typer des termes construits par point fixe. Une analyse critique nous a conduit a en reprendre l'etude dans le calcul des constructions (cc), systeme mathematiquement plus elegant et syntaxiquement plus simple. L'introduction d'un constructeur de point fixe dans cc conduit a une extension, notee cc#+, conservative au-dessus de cc. La construction de schemas par point fixe doit respecter le predicat usuel de positivite. Aucune restriction au niveau des preuves. La definissabilite des fonctions partielles recursives sur les entiers est obtenue. Une definition alternative pour les types concrets introduits par ch. Paulin-mohring est proposee. L'expressivite calculatoire y est ainsi amelioree. Les termes construits ont un meilleur comportement calculatoire. L'expressivite logique n'est pas accrue; le predicat d'induction sur les entiers reste non prouvable, par exemple. La preuve des proprietes de confluence et de normalisation forte est rendue delicate pour cc#+. Une formulation plus synthetique du theoreme de normalisation forte de girard proposee par coquand pour cc, nous permet de montrer ces proprietes de maniere tres uniforme. Cette analyse suggere une approche plus simple de la semantique de cc et cc#+. Une esquisse est proposee dans le cadre d'un topos avec objet reflexif
APA, Harvard, Vancouver, ISO, and other styles
4

Lezama, José. "On grouping theory in dot patterns, with applications to perception theory and 3D inverse geometry." Thesis, Cachan, Ecole normale supérieure, 2015. http://www.theses.fr/2015DENS0009/document.

Full text
Abstract:
Cette thèse porte sur l'étude de deux modèles mathématiques pour une tâchevisuelle élémentaire: le regroupement perceptuel de points 2D. Le premier modèletraite la détection d'alignements de point perceptuellement relevant. Ledeuxième modèle étend ce cadre au cas plus général de la bonne continuation depoints. Dans les deux cas, les modèles proposés sont invariants au changementd'échelle, et non supervisés. Ils sont conçus pour être robustes au bruit,jusqu'au point où les structures à détecter deviennent mathématiquementimpossibles de distinguer du bruit. Les expériences presentées montrent unecohérence entre notre théorie de détéction et les processus de démasquage ayantlieu dans la perception humaine.Les modèles proposés sont basés dans la méthodologie a contrario, uneformalisation du principe de non accidentalité dans la théorie de laperception. Cette thèse fait deux contributions au méthodes a contrario. Une estl'introduction de seuils de détection adaptatifs qui sont conditionnels auxenvirons des structures évaluées. La deuxième contribution est une nouvellestratégie raffinée pour résoudre la redondance de plusieurs détectionssignificatives.Finalement, l'utilité du détecteur d'alignements de points comme outil générald'analyse de données est démontrée avec son application a une problème classiqueen vision par ordinateur: la détection de points de fuite. Le détecteurd'alignements de points proposé, utilisé avec des outils standards, produit desrésultats améliorant l'état de l'art.Visant à la recherche reproductible, toutes les méthodes sont soumis au journalIPOL, en incluant descriptions détaillées des algorithmes, du code sourcecommenté et démonstrations en ligne pour chaque méthode
This thesis studies two mathematical models for an elementary visual task: theperceptual grouping of dot patterns. The first model handles the detection ofperceptually relevant arrangements of collinear dots. The second model extendsthis framework to the more general case of good continuation of dots. In bothcases, the proposed models are scale invariant and unsupervised. They aredesigned to be robust to noise, up to the point where the structures to detectbecome mathematically indistinguishable from noise. The experiments presentedshow a good match of our detection theory with the unmasking processes takingplace in human perception, supporting their perceptual plausibility.The proposed models are based on the a contrario framework, a formalization ofthe non-accidentalness principle in perception theory. This thesis makes twocontributions to the a contrario methodology. One is the introduction ofadaptive detection thresholds that are conditional to the structure's localsurroundings. The second is a new refined strategy for resolving the redundancyof multiple meaningful detections. Finally, the usefulness of the collinear point detector as a general patternanalysis tool is demonstrated by its application to a classic problem incomputer vision: the detection of vanishing points. The proposed dot alignmentdetector, used in conjunction with standard tools, produces improved resultsover the state-of-the-art methods in the literature.Aiming at reproducible research, all methods are submitted to the IPOL journal,including detailed descriptions of the algorithms, commented reference sourcecodes, and online demonstrations for each one
APA, Harvard, Vancouver, ISO, and other styles
5

OKASSA, EUGENE. "Geometrie des points proches et applications." Toulouse 3, 1989. http://www.theses.fr/1989TOU30003.

Full text
Abstract:
On donne une caracterisation du prolongement des champs de vecteurs sur une variete des points proches. On determine le type d'algebres locales pour lesquel certaines relevees de formes symplectiques (respectivement pseudo-riemanniennes) sont symplectiques (respectivement pseudo-riemanniennes). On definit les prolongements d'algebres locales: ce qui permet de definir le complexe differentiel de lagrange sur une variete de points proches
APA, Harvard, Vancouver, ISO, and other styles
6

Dewaghe, Laurent. "Calcul du nombre de points sur une courbe elliptique dans un corps fini." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-354.pdf.

Full text
Abstract:
Ma thèse apporte des résultats théoriques et pratiques concernant le meilleur algorithme connu - algorithme de schoof-elkies-atkin (sea) - pour le calcul du nombre de points sur une courbe elliptique dans un corps fini de très grande caractéristique. Cela a permis de déterminer le nombre de points d'une courbe sur un corps de caractéristique étant un nombre record. Plus précisément, je décris, tout d'abord, quelques propriétés des polynômes intervenants dans sea (et plus généralement associes à la courbe elliptique e : polynômes de division, polynômes de division exacte, polynômes de semi-division et les polynômes modulaires), en particulier, je donne la forme de leur décomposition en facteurs irréductibles sur le corps de base. De plus, je montre le lien entre la réductibilité des polynômes modulaires et des polynômes de division. D'autre part, dans le cas d'un bon nombre premier, je donne la complexité des différentes déterminations d'une valeur propre du Frobenius de la courbe elliptique et j'accélère la phase finale de cette détermination, en évitant le calcul des ordonnées des points sur la courbe, dans certains cas que l'on précise
APA, Harvard, Vancouver, ISO, and other styles
7

Lemarinier, Pierre. "Fiabilité et traitement de la volatilité dans les systèmes de calcul global." Paris 11, 2006. http://www.theses.fr/2006PA112258.

Full text
Abstract:
Les systèmes de calcul agrègent de plus en plus de processeurs et sont par conséquent plus fréquemment affectés par des pannes franches. Les applications de calcul à passage de messages sont en grande partie développées selon la norme MPI. De nombreux travaux sur la tolérance aux pannes automatique et transparente pour les applications ont été menés au sein des librairies MPI. Tous ces travaux sont basés sur des techniques de points de reprise, coordonnés ou non coordonnés. Néanmoins aucune comparaison entre les différents protocoles n'a été réalisée en terme de coût et d'impact sur les performances des applications. Nous proposons dans cette étude la première comparaison entre ces différents protocoles. Dans un premier temps, nous décrivons dans un modèle commun un protocole à enregistrement de message pessimiste distant, un protocole à enregistrement de messages pessimiste sur l'émetteur, un protocole à enregistrement de messages causal ainsi que deux protocoles à points de reprise coordonnés : un protocole non bloquant et un protocole bloquant. La deuxième partie de cette thèse décrit les implémentations des quatre premiers protocoles dans la librairie MPICH et l'implémentation du dernier protocole dans la librairie MPICH2. Nous résumons les résultats des expériences menées sur les protocoles à enregistrement de messages pessimistes puis nous exposons en détail les résultats des mesures de performances réalisées sur les implémentations des protocoles causal et à points de reprise coordonnés à l'aide de micro benchmarks et d'applications numériques, pour différentes plateformes de calcul
The distributed computing systems gather more and more processors and are thus subjected to higher failure frequencies. The message passing applications are now generally written using the MPI interface. Numbers of automatic and transparent fault tolerant protocols for message passing libraries have been proposed and implemented. All these protocols rely on checkpoint/restart mechanisms, coordinated or not. However, no comparison of these protocols have been presented yet, in term of cost on the initial performance of MPI applications. We expose in this paper the first comparison between the different kind of fault tolerant protocols. The first part describes in a common model five protocols: a distant pessimistic message logging protocol, a sender based pessimistic message logging protocol, a causal message logging protocol, a non blocking coordinated checkpoint protocol and finally a blocking coordinated checkpoint protocol. The second part of this thesis presents the implementation of the fourth first protocols in the MPICH library and the fifth protocol in the MPICH2 library. Then we sum up the experiment results we obtained for the pessimistic protocols implementation and detail the performance measurements of the causal implementation and the coordinated checkpoint implementations, using micro benchmarks and NAS applications on different computing systems
APA, Harvard, Vancouver, ISO, and other styles
8

Bataille, Camille. "Topographie multi-échelle et fuite évolutive d'un contact coulissant : approche expérimentale et simulation." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0008.

Full text
Abstract:
Les pompes permettent le transfert d’un produit (colle, lubrifiant, essence, etc.) jusqu’au système de pulvérisation sous pression. Etant présentes dans une multitude de secteur d’activité, leur fiabilité a une importance majeure pour la protection de l’environnement et de la santé. Nous étudions l’impact de l’état de surface sur la fonctionnalité (étanchéité, usure) de différents systèmes, au sein des pompes et systèmes de pulvérisation. Une méthode de caractérisation multi-échelle est ainsi mise en place afin de comprendre l’impact de l’état de surface des pièces sur la fonctionnalité de ces systèmes. Cette méthode est appliquée sur une première étude de caractérisation de l’étanchéité de buses réversibles. Il n’est pas toujours évident d’interpréter l’impact de la morphologie d’une surface sur sa fonctionnalité utilisant les paramètres de rugosité. Un modèle de contact et un outil de visualisation de répartition du contact sont donc développés. L’interface de contact est ainsi calculée pour mieux comprendre la répartition du contact et les chemins de fuite. La suite de la thèse a pour but de caractériser couple étanchéité/usure d’un piston hydraulique. Un banc de test est développé pour caractériser l’usure, l’étanchéité et la topographie des pièces étudiées. Ainsi, la dégradation de l’état de surface d’un piston est analysée en fonction de son étanchéité. Afin d’appliquer l’étude du couplage étanchéité/usure à d’autres contacts similaires, un modèle numérique, capable de calculer la conductance hydraulique d’un contact coulissant entre deux surfaces rugueuses, est en développement. Pour terminer, des revêtements susceptibles de remplacer le chrome dur sont testés en usure. L’utilisation du chromage dur étant fortement réglementée et sera amené à être interdite à l’avenir. Ainsi, l’étude comparative de la dégradation de différents revêtements dans les mêmes conditions d’usure est étudiée
Pumps allow the transfer of a product (glue, lubricant, petrol, etc.) to the pressurised spraying system. Being present in a multitude of industries, their reliability is of major importance for the protection of the environment and health. We study the impact of surface finish on the functionality (tightness, wear) of different systems, within pumps and spraying systems. A multi-scale characterization method is thus implemented in order to understand the impact of the surface finish of parts on the functionality of these systems. This method is applied on a first characterization study of the tightness of reversible nozzles. It is not always easy to interpret the impact of the morphology of a surface on its functionality using roughness parameters. A contact model and a contact distribution visualization tool are therefore developed. The contact interface is thus computed to better understand the contact distribution and leakage paths. The next part of the thesis aims to characterize the seal/wear torque of a hydraulic piston. A test bench is developed to characterize the wear, tightness and topography of the studied parts. Thus, the degradation of the surface state of a piston is analyzed as a function of its tightness. In order to apply the study of the seal/wear coupling to other similar contacts, a numerical model, capable of calculating the hydraulic conductance of a sliding contact between two rough surfaces, is being developed. Finally, coatings that could replace hard chromium are being tested for wear. The use of hard chromium plating is highly regulated and will be banned in the future. Thus, the comparative degradation of different coatings under the same wear conditions is being studied
APA, Harvard, Vancouver, ISO, and other styles
9

Dormoy, Jérôme. "Un algorithme linéaire de calcul de points fixes dans les systèmes de transitions : parallélisation et études expérimentales." Bordeaux 1, 1997. http://www.theses.fr/1997BOR10628.

Full text
Abstract:
Actuellement, le domaine de la verification est confronte au probleme de l'explosion combinatoire des systemes modelises. Les axes de recherche pour lutter contre ce probleme se portent a la fois sur la realisation d'algorithmes rapides, et sur la mise au point de techniques visant a contourner le delicat probleme de la taille de tels systemes. En ce qui concerne, les algorithmes rapides, nous presentons un algorithme de calcul de points fixes dont la complexite est lineaire. D'autre part, plusieurs approches comme par exemple la verification a la volee, ou les representations plus compactes a l'aide de diagrammes binaires de decisions, permettent d'attenuer le probleme de la taille des systemes modelises. Nous avons choisi d'explorer une nouvelle approche qui consiste a repartir le systeme sur plusieurs processeurs. Nous presentons donc egalement une etude sur la parallelisation de l'algorithme lineaire de calcul de points fixes. Pour chaque algorithme, sequentiel et parallele, et c'est un des aspects original de cette etude, nous avons effectue une importante phase d'experimentations. Cette analyse nous a permis de verifier tout d'abord que la complexite de l'implementation sequentielle etait bien conforme au modele theorique, et ensuite la pertinence de l'approche parallele.
APA, Harvard, Vancouver, ISO, and other styles
10

Wallet, Alexandre. "Le problème de décompositions de points dans les variétés Jacobiennes." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066438/document.

Full text
Abstract:
Le problème du logarithme discret est une brique fondamentale de nombreux protocoles de communication sécurisée. Son instantiation sur les courbes elliptiques a permis, grâce à la petite taille des opérandes considérées, le déploiement de primitives asymétriques efficaces sur des systèmes embarqués. De nos jours, les cryptosystèmes utilisant des courbes elliptiques, aussi appelées courbes de genre 1, sont déjà intensément utilisés: il est donc impératif de savoir estimer précisément la robustesse de ces systèmes. L'existence d'attaques mathématiques permettant de transférer un problème de logarithme discret elliptique dans un autre type de courbe algébrique, et la nouvelle compétitivité des courbes de genre 2 imposent de ne pas se restreindre à la seule compréhension du problème sur les courbes elliptiques.Dans cette optique, le sujet de cette thèse se concentre sur les attaques algébriques sur les courbes de genre supérieur à 1. Les algorithmes de type calcul d'indice sont en général préférés pour ce genre d'attaque. Ces algorithmes se déroulent en deux phases: la première, appelée phase de récolte, dispose de nombreuses modélisations algébriques dépendant de la courbe ciblée. Le problème sous-jacent revient à savoir décomposer efficacement des points dans la variété Jacobienne de la courbe en somme d'autres points.On propose dans un premier temps une approche par crible pour la phase de récolte, s'adaptant à tous les types de courbes de genre plus grand que 1, et qui est expérimentalement plus efficaces que les méthodes de l'état de l'art. Cette méthode a l'avantage de proposer une implémentation immédiate, et évite les problèmes usuels de gestion des relations obtenues.Ensuite, on se concentre les variantes de calcul d'indice appelées attaques par décomposition, et ciblant les courbes définies sur des extensions de corps. Dans cette situation, la phase de récolte est effectuée par résolution de nombreux systèmes polynomiaux multivariés. On propose une nouvelle approche de modélisation de ces systèmes, en généralisant la notion de polynômes de sommation elliptique à tout les types de courbes algébriques. Pour cela on fait appel à la théorie de l'élimination, tandis que l'aspect pratique est gérée par des méthodes de bases de Gröbner.Enfin, on fournit des algorithmes d'amélioration du processus de résolution des systèmes lorsque la caractéristique du corps de base est paire. Par le biais d'une présentation théorique générale et en utilisant des méthodes de bases de Gröbner, on propose une analyse fine de l'impact de ces améliorations sur la complexité de la résolution. Cette analyse fine, ainsi qu'une implémentation dédiée, nous permettent d'attaquer une courbe de genre 2 satisfaisant des bornes de sécurité réaliste en pratique
The discrete logarithm problem is a fundamental brick for several protocols for secured communications. Its instantiation over elliptic curves allows the deployment of efficient asymmetric primitives in embedded systems, because of the small size of the parameters considered. Nowadays, elliptic curves cryptosystems are already widely used: it is therefore crucial to precisely understand the hardness of such systems. Because of the existence of mathematical attacks enabling the transfer from an elliptic curve discrete logarithm problem to another algebraic curve, and the upcoming competitivity of genus 2 curves, it is mandatory to study the problem not only for elliptic curves, but for the other curves as well.In this way, this thesis focuses on the algebraic attacks over curves with genus greater than 1. The index calculus family of algorithms is in general preferred for this kind of attacks. Those algorithms run in two phases: the first, called harvesting phase, can be modelled by different algebraic approaches, depending in the targetted curve. The underlying problem amounts to knowing how to decompose efficiently points in the Jacobian variety of the curve into sums of other points.First, we propose a sieving approach to the harvesting, that can be adated to any type of curves with genus greater than 1, and which turns to be experimentally more efficient than state-of-the-art's methods. Moreover, our method allows a close-to-immediate implementation, and avoid complications coming from relations management.Our second focus is on a variant of index calculus called decomposition attack, targetting curves defined over field extensions. In this situation, harvesting is done by solving numerous multivariate polynomial systems. We propose a new approach to this modelling by generalizing the notion of elliptic summation polynomias to any type of algebraic curves. This uses elimination theory, and the computational aspect is handled by Gröbner bases methods.Third, we give algorithms to improve the solving process of the systems arising from a decomposition attacks when the characteristic of the base field is even. By mean of a general theoretical presentation, and using Gröbner bases methods, we give a sharp analysis of the impact of such improvement on the complexity of the resolution process. This sharp analysis together with a dedicated implementation allows us to attack a genus 2 curve satisfying realistic security parameters
APA, Harvard, Vancouver, ISO, and other styles
11

Elloumi, Wael. "Contributions à la localisation de personnes par vision monoculaire embarquée." Phd thesis, Université d'Orléans, 2012. http://tel.archives-ouvertes.fr/tel-00843634.

Full text
Abstract:
Une des techniques alternatives au GPS pour le développement d'un système d'assistance à la navigationpédestre en milieux urbains est la vision embarquée. La localisation du porteur de la caméra s'appuie alorssur l'estimation de la pose à partir des images acquises au cours du cheminement. En s'inspirant destravaux antérieurs sur la navigation autonome de robots, cette thèse explore deux approches dans le cadrespécifique de la localisation pédestre. La première méthode de localisation s'appuie sur des appariementsde primitives images avec une cartographie 3D pré-estimée de l'environnement. Elle permet une estimationprécise de la pose complète de la caméra (6 ddl), mais les expérimentations montrent des limitationscritiques de robustesse et temps de calcul liées à l'étape de mise en correspondance. Une solutionalternative est proposée en utilisant les points de fuite. L'orientation de la caméra (3ddl) est estimée defaçon robuste et rapide par le suivi de 3 points de fuites orthogonaux dans une séquence vidéo. L'algorithmedéveloppé permet une localisation pédestre indoor en deux étapes : une phase d'apprentissage hors lignedéfinit un itinéraire de référence en sélectionnant des images clef au long du parcours, puis, en phase delocalisation, une position approximative mais réaliste du porteur est estimée en temps réel en comparant lesorientations de la caméra dans l'image courante et celle de référence.
APA, Harvard, Vancouver, ISO, and other styles
12

Marcaillou, Sophie. "Intégration de la notion de points de vue dans la modélisation par objets : le langage VBOOL." Toulouse 3, 1995. http://www.theses.fr/1995TOU30016.

Full text
Abstract:
L'etude des besoins de la modelisation des systemes complexes, en particulier des systemes spatiaux, nous a amene a definir nos objectifs en termes de modelisation par objets unique et coherente, supportant des points de vue multiples et evolutifs. Diverses approches tentent d'introduire ces concepts, dans plusieurs domaines informatique (intelligence artificielle, bases de donnees, genie logiciel), mais aucune ne satisfait entierement nos objectifs. Notre demarche consiste a integrer les concepts de vue et de point de vue dans la modelisation par objets. Apres avoir defini et formalises ces concepts, nous en proposons une implantation par l'intermediaire d'une nouvelle relation appelee visibilite. Le mecanisme introduit permet de filtrer les informations contenues dans une classe et de les fournir selectivement a ses classes descendantes ou a ses instances. Pour supporter la visibilite et les concepts qu'elle introduit, nous avons defini un nouveau langage nomme view based object oriented language (vbool) qui constitue une extension du langage eiffel3. Il integre completement les fonctionnalites polymorphiques et generiques et supporte la visibilite repetee. Nous avons introduit un mecanisme puissant qui permet l'evolution dynamique du modele en garantissant sa coherence. Afin de valider le langage vbool, nous avons formalise sa description syntaxique et semantique. Nous decrivons ainsi, dans le formalisme typol, le schema general d'un interprete de vbool effectuant les controles semantiques necessaires a la coherence du systeme modelise. L'interprete du langage, construit sous l'environnement centaur, est charge de generer du code eiffel3. 0 a partir de code vbool. Le code obtenu est compilable et permet, a l'execution, de valider l'interpretation. Tout ceci est illustre par la modelisation des cases a equipements d'ariane4 selon les points de vue de quatre utilisateurs determines. Cette modelisation est effectuee suivant une methodologie supportant la visibilite et le langage vbool, appelee view based object oriented methodology (vboom)
APA, Harvard, Vancouver, ISO, and other styles
13

Wallet, Alexandre. "Le problème de décompositions de points dans les variétés Jacobiennes." Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066438.

Full text
Abstract:
Le problème du logarithme discret est une brique fondamentale de nombreux protocoles de communication sécurisée. Son instantiation sur les courbes elliptiques a permis, grâce à la petite taille des opérandes considérées, le déploiement de primitives asymétriques efficaces sur des systèmes embarqués. De nos jours, les cryptosystèmes utilisant des courbes elliptiques, aussi appelées courbes de genre 1, sont déjà intensément utilisés: il est donc impératif de savoir estimer précisément la robustesse de ces systèmes. L'existence d'attaques mathématiques permettant de transférer un problème de logarithme discret elliptique dans un autre type de courbe algébrique, et la nouvelle compétitivité des courbes de genre 2 imposent de ne pas se restreindre à la seule compréhension du problème sur les courbes elliptiques.Dans cette optique, le sujet de cette thèse se concentre sur les attaques algébriques sur les courbes de genre supérieur à 1. Les algorithmes de type calcul d'indice sont en général préférés pour ce genre d'attaque. Ces algorithmes se déroulent en deux phases: la première, appelée phase de récolte, dispose de nombreuses modélisations algébriques dépendant de la courbe ciblée. Le problème sous-jacent revient à savoir décomposer efficacement des points dans la variété Jacobienne de la courbe en somme d'autres points.On propose dans un premier temps une approche par crible pour la phase de récolte, s'adaptant à tous les types de courbes de genre plus grand que 1, et qui est expérimentalement plus efficaces que les méthodes de l'état de l'art. Cette méthode a l'avantage de proposer une implémentation immédiate, et évite les problèmes usuels de gestion des relations obtenues.Ensuite, on se concentre les variantes de calcul d'indice appelées attaques par décomposition, et ciblant les courbes définies sur des extensions de corps. Dans cette situation, la phase de récolte est effectuée par résolution de nombreux systèmes polynomiaux multivariés. On propose une nouvelle approche de modélisation de ces systèmes, en généralisant la notion de polynômes de sommation elliptique à tout les types de courbes algébriques. Pour cela on fait appel à la théorie de l'élimination, tandis que l'aspect pratique est gérée par des méthodes de bases de Gröbner.Enfin, on fournit des algorithmes d'amélioration du processus de résolution des systèmes lorsque la caractéristique du corps de base est paire. Par le biais d'une présentation théorique générale et en utilisant des méthodes de bases de Gröbner, on propose une analyse fine de l'impact de ces améliorations sur la complexité de la résolution. Cette analyse fine, ainsi qu'une implémentation dédiée, nous permettent d'attaquer une courbe de genre 2 satisfaisant des bornes de sécurité réaliste en pratique
The discrete logarithm problem is a fundamental brick for several protocols for secured communications. Its instantiation over elliptic curves allows the deployment of efficient asymmetric primitives in embedded systems, because of the small size of the parameters considered. Nowadays, elliptic curves cryptosystems are already widely used: it is therefore crucial to precisely understand the hardness of such systems. Because of the existence of mathematical attacks enabling the transfer from an elliptic curve discrete logarithm problem to another algebraic curve, and the upcoming competitivity of genus 2 curves, it is mandatory to study the problem not only for elliptic curves, but for the other curves as well.In this way, this thesis focuses on the algebraic attacks over curves with genus greater than 1. The index calculus family of algorithms is in general preferred for this kind of attacks. Those algorithms run in two phases: the first, called harvesting phase, can be modelled by different algebraic approaches, depending in the targetted curve. The underlying problem amounts to knowing how to decompose efficiently points in the Jacobian variety of the curve into sums of other points.First, we propose a sieving approach to the harvesting, that can be adated to any type of curves with genus greater than 1, and which turns to be experimentally more efficient than state-of-the-art's methods. Moreover, our method allows a close-to-immediate implementation, and avoid complications coming from relations management.Our second focus is on a variant of index calculus called decomposition attack, targetting curves defined over field extensions. In this situation, harvesting is done by solving numerous multivariate polynomial systems. We propose a new approach to this modelling by generalizing the notion of elliptic summation polynomias to any type of algebraic curves. This uses elimination theory, and the computational aspect is handled by Gröbner bases methods.Third, we give algorithms to improve the solving process of the systems arising from a decomposition attacks when the characteristic of the base field is even. By mean of a general theoretical presentation, and using Gröbner bases methods, we give a sharp analysis of the impact of such improvement on the complexity of the resolution process. This sharp analysis together with a dedicated implementation allows us to attack a genus 2 curve satisfying realistic security parameters
APA, Harvard, Vancouver, ISO, and other styles
14

Facchini, Alessandro. "A study on the expressive power of some fragments of the modal µ-calculus." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14210/document.

Full text
Abstract:
Dans ce travail nous étudions la complexité de certains fragments du mu-calcul selon deux points de vue: l’un syntaxique et l’autre topologique. Dans la première partie nous adoptons le point de vue syntaxique afin d'étudier le comportement du mu-calcul sur des classes restreintes de modèles. Parmi d'autres résultats, nous montrons en particulier que sur les modèles transitifs toute propriété définissable par une formule du mu-calcul est définissable par une formule sans alternance de points fixes. Pour ce qui concerne la perspective topologique, nous montrons d'abord que sur les modèles transitifs la logique modale correspond au fragment borélien du mu-calcul. Ensuite nous donnons une description effective des hiérarchies de Borel et de Wadge d'un sous-fragment sans alternance de cette logique sur les arbres binaires et vérifions que pour ce fragment les points de vue topologique et syntaxique coïncident
In this work we study the complexity of some fragments of the modal mu-calculus from two points of view: the syntactical and the topological. In the first part of the dissertation we adopt the syntactical point of view in order to study the behavior of this formalism on some restricted classes of models. Among other results, we show that on transitive transition systems, every mu-formula is logically equivalent to an alternation free formula. For what concerns the topological point of view, we first prove that on transitive models, the modal logic is exactly the Borel fragment of the modal mu-calculus. Then we provide an effective description of the Borel and Wadge hierarchies of a sub-fragment of the alternation free fragment of the mu-calculus on binary trees. Finally we verify that for this fragment the syntactical point of view and topological point of view coincide
APA, Harvard, Vancouver, ISO, and other styles
15

Laizet, Sylvain. "Développement d'un code de calcul combinant des schémas de haute précision avec une méthode de frontières immergées pour la simulation des mouvements tourbillonnaires en aval d'un bord de fuite." Poitiers, 2005. http://www.theses.fr/2005POIT2339.

Full text
Abstract:
La réalisation de simulations des mouvements tourbillonnaires en aval d'un bord de fuite reste une tâche difficile en mécanique des fluides. Des développements numériques ont été réalisés à partir d'un code de calcul résolvant les équations de Navier-Stokes incompressibles à l'aide de schémas aux différences finies de haute précision. L'originalité de l'approche numérique réside dans l'utilisation d'une méthode spectrale pour la résolution de l'équation de Poisson qui combinée à une méthode de frontières immergées permet de simuler des écoulements en présence de parois. Un effort particulier a été fait pour l'amélioration de la résolution de l'équation de Poisson afin d'utiliser un maillage inhomogène et une grille décalée pour le champ de pression. Deux écoulements de couche de mélange avec la prise en compte des parois ont été simulés avec un bord de fuite épais puis mince dans le but de déterminer l'influence de la géométrie de la plaque séparatrice sur la dynamique de l'écoulement
To carry out simulations of the vortex dynamics behind a trailing edge remains a difficult task in fluid mechanics. Numerical development has been performed with a computer code which solves the incompressible Navier-Stokes equations with high order compact finite difference schemes on a Cartesian grid. The specificity of this code is that the Poisson equation is solved in the spectral space with the modified spectral formalism. This code can be combined with an immersed boundary method in order to simulate flows with complex geometry. A particular work was made to improve the resolution of the Poisson equation in order to use a stretched mesh and a staggered grid for the pressure. Two mixing layers flows with a blunt and a bevelled trailing edge were performed in order to determinate the influence of the separating plate's shape on the vortex dynamics
APA, Harvard, Vancouver, ISO, and other styles
16

THIEULLEN, BONANSEA MICHELE. "Points multiples des procesus de levy. Critere de non explosion de solutions d'equations differentielles stochastiques. Calcul stochastique non adapte a deux parametres." Paris 6, 1990. http://www.theses.fr/1990PA066337.

Full text
Abstract:
Nous montrons que n copies independantes d'un processus de levy x issues de points appartenant a un voisinage de 0, ont des points communs avec probabilite strictement positive si le noyau resolvant de x est fortement fellerien de densite de puissance nieme integrable au voisinge de 0. Nous donnons un resultat sur la 1-capacite d'une boule de rayon a et de centre 0 relativement ax. Nous etudions le cas particulier ou x est un processus stable. Ensuite nous donnons un critere pour que la solution d'une equation differentielle stochastique de dole ans-dade n'explose pas. Pour toute condition initiale. Enfin nous montrons une formule de changement de variable de type stratonovitch pour des processus non adaptes indexes par 0;1#2. Pour cela nous definissons des integrales de stratonovitch simple et double. Nous en deduisons une formule de type skorohod qui ne contient aucune integrale de ligne. Notre methode consiste a regulariser le processus de wiener par convolution
APA, Harvard, Vancouver, ISO, and other styles
17

Tournier, Évelyne. "Solutions formelles d'équations différentielles : le logiciel de calcul formel DESIR : étude théorique et réalisation." Grenoble 1, 1987. http://tel.archives-ouvertes.fr/tel-00323706.

Full text
Abstract:
Le sujet de la thèse se rattache au calcul formel. La première partie est consacrée à l'étude et à la réalisation d'un logiciel de résolution d'équations différentielles. Ce logiciel DESIR est écrit pour le système de calcul formel REDUCE. Il permet d'obtenir les solutions formelles d'équations différentielles, d'un ordre quelconque, au voisinage de points réguliers et irréguliers. La deuxième partie est une étude approfondie des équations aux différences. Cette étude est orientée vers la recherche d'algorithme permettant de construire une base de solutions asymptotiques d'une équation aux différences linéaires à coefficients dans un corps de séries formelles
APA, Harvard, Vancouver, ISO, and other styles
18

Abelard, Simon. "Comptage de points de courbes hyperelliptiques en grande caractéristique : algorithmes et complexité." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0104.

Full text
Abstract:
Le comptage de points de courbes algébriques est une primitive essentielle en théorie des nombres, avec des applications en cryptographie, en géométrie arithmétique et pour les codes correcteurs. Dans cette thèse, nous nous intéressons plus particulièrement au cas de courbes hyperelliptiques définies sur des corps finis de grande caractéristique p. Dans ce cas de figure, les algorithmes dérivés de ceux de Schoof et Pila sont actuellement les plus adaptés car leur complexité est polynomiale en \log p. En revanche, la dépendance en le genre g de la courbe est exponentielle et se fait cruellement sentir même pour g=3. Nos contributions consistent principalement à obtenir de nouvelles bornes pour la dépendance en g de l'exposant de \log p. Dans le cas de courbes hyperelliptiques, de précédents travaux donnaient une borne quasi-quadratique que nous avons pu ramener à linéaire, et même constante dans le cas très particuliers de familles de courbes dites à multiplication réelle (RM). En genre 3, nous avons proposé un algorithme inspiré de ceux de Schoof et de Gaudry-Harley-Schost dont la complexité, en général prohibitive, devient très raisonnable dans le cas de courbes RM. Nous avons ainsi pu réaliser des expériences pratiques et compter les points d'une courbe hyperelliptique de genre 3 pour un p de 64 bits
Counting points on algebraic curves has drawn a lot of attention due to its many applications from number theory and arithmetic geometry to cryptography and coding theory. In this thesis, we focus on counting points on hyperelliptic curves over finite fields of large characteristic p. In this setting, the most suitable algorithms are currently those of Schoof and Pila, because their complexities are polynomial in \log q. However, their dependency in the genus g of the curve is exponential, and this is already painful even in genus 3. Our contributions mainly consist of establishing new complexity bounds with a smaller dependency in g of the exponent of \log p. For hyperelliptic curves, previous work showed that it was quasi-quadratic, and we reduced it to a linear dependency. Restricting to more special families of hyperelliptic curves with explicit real multiplication (RM), we obtained a constant bound for this exponent.In genus 3, we proposed an algorithm based on those of Schoof and Gaudry-Harley-Schost whose complexity is prohibitive in general, but turns out to be reasonable when the input curves have explicit RM. In this more favorable case, we were able to count points on a hyperelliptic curve defined over a 64-bit prime field
APA, Harvard, Vancouver, ISO, and other styles
19

Guermouche, Amina. "Nouveaux Protocoles de Tolérances aux Fautes pour les Applications MPI du Calcul Haute Performance." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00666063.

Full text
Abstract:
Avec l'évolution des machines parallèles, le besoin en protocole de tolérance aux fautes devient de plus en plus important. Les protocoles de tolérance aux fautes existants ne sont pas adaptés à ces architectures car soit ils forcent un redémarrage global (protocoles de sauvegarde de points de reprise coordonnés) soit ils forcent l'enregistrement de tous les messages (protocoles à enregistrement de messages). Nous avons étudié les caractéristiques des protocoles existants. Dans un premier temps, nous avons étudié le déterminisme des applications, étant donné que les protocoles existants supposent des exécutions non déterministes ou déterministes par morceaux. Dans notre étude, nous nous sommes intéressés au modèle par échange de messages, et plus précisément aux applications MPI. Nous avons analysé 26 applications MPI et avons mis avant une nouvelle caractéristique appelée "déterminisme des émissions" qui correspond à la majorité des applications étudiées. Dans un second temps, nous nous sommes intéressés aux schémas de communications des applications afin d'étudier l'existence des groupes de processus dans ces schémas. L'étude a montré que pour la plupart des applications, il est possible de créer des groupes de processus de façon à minimiser la taille des groupes et le volume des messages inter-groupe. A partir de là nous avons proposé deux protocoles de tolérance aux fautes. Le premier est un protocole de sauvegarde de points de reprise non coordonnés pour les applications à émissions déterministes qui évite l'effet domino en n'enregistrant qu'un sous ensemble des messages de l'application. Nous avons également adapté le protocole pour l'utiliser sur des groupes de processus. Par la suite, nous avons proposé HydEE, un protocole hiérarchique fondé sur le déterminisme des émissions et les groupes de processus. Il combine un protocole de sauvegarde de points de reprise coordonnés au sein des groupes à un protocole à enregistrement de messages entre les groupes.
APA, Harvard, Vancouver, ISO, and other styles
20

Emmanuel, Aurélien. "Courbes d'accumulations des machines à signaux." Electronic Thesis or Diss., Orléans, 2023. http://www.theses.fr/2023ORLE1079.

Full text
Abstract:
Cette thèse s'inscrit dans l'étude d'un modèle de calcul géométrique : les machines à signaux. Nous y montrons comment tracer des graphes de fonctions à l'aide d'arbres unaire-binaires. Dans le monde des automates cellulaires, il est souvent question de particules ou signaux : des structures périodiques dans le temps et l'espace, autrement dit des structures qui se déplacent à vitesse constante. Lorsque plusieurs signaux se rencontrent, une collision a lieu, et les signaux entrant peuvent continuer, disparaître ou laisser place à d'autres signaux, en fonctions des règles de l'automate cellulaire. Les machines à signaux sont un modèle de calcul qui reprend ces signaux comme briques de base. Visualisées dans un diagramme espace-temps, l'espace en axe horizontal et le temps vertical s'écoulant vers le haut, ce modèle revient à calculer par le dessin de segments et demi-droites colorés. On trace, de bas en haut, des segments jusqu'à ce que deux ou plus s'intersectent, et l'on démarre alors de nouveau segments, en fonctions de règles prédéfinies. Par rapport aux automates cellulaires, les machines à signaux permettent l'émergence d'un nouveau phénomène : la densité des signaux peut être arbitrairement grande et même infinie, y compris en partant d'une configuration initiale de densité finie. De tels points du diagramme espace-temps, des points au voisinage desquels se trouvent une infinité de signaux, sont appelés points d'accumulation. Ce nouveau phénomène permet de définir de nouveau problèmes, géométriquement. Par exemple : quels sont les points d'accumulations isolés possibles en utilisant des positions initiales et des vitesses rationnelles ? Peut-on faire en sorte que l'ensemble des points d'accumulation forment un segment ? un ensemble de Cantor ? Dans cette thèse, nous nous attelons à caractériser des graphes de fonctions qu'il est possible de dessiner par un ensemble d'accumulation. Elle s'inscrit dans l'exploration de la puissance de calcul des machines à signaux, qui s'inscrit plus généralement dans l'étude de la puissance de calcul de modèles non standards. Nous y montrons que les fonctions d'un segment compact de la droite réelle dont le graphe coïncide avec l'ensemble d'accumulation d'une machine à signaux sont exactement les fonctions continues. Nous montrons plus généralement comment les machines à signaux peuvent dessiner n'importe quel fonction semi-continue inférieurement. Nous étudions aussi la question sous des contraintes de calculabilité, avec le résultat suivant : si un diagramme de machine à signaux calculable coïncide avec le graphe d'un fonction suffisamment lipschitzienne, cette fonction est limite calculable d'une suite croissante de fonctions en escalier rationnelles
This thesis studies a geometric computational model: signal machines. We show how to draw function graphs using-binary trees. In the world of cellular automata, we often consider particles or signals: structures that are periodic in time and space, that is, structures that move at constant speed. When several signals meet, a collision occurs, and the incoming signals can continue, disappear, or give rise to new signals, depending on the rules of the cellular automaton. Signal-machines are a computational model that takes these signals as basic building blocks. Visualized in a space-time diagram, with space on the horizontal axis and time running upwards, this model consists of calculating by drawing segments and half-lines. We draw segments upwards until two or more intersect, and then start new segments, according to predefined rules. Compared to cellular automata, signal-machines allow for the emergence of a new phenomenon: the density of signals can be arbitrarily large, even infinite, even when starting from a finite initial configuration. Such points in the space-time diagram, whose neighborhoods contain an infinity of signals, are called accumulation points.This new phenomenon allows us to define new problems geometrically. For example, what are the isolated accumulation points that can be achieved using rational initial positions and rational velocities? Can we make so the set of accumulation points is a segment? A Cantor set? In this thesis, we tackle the problem of characterizing the function graphs that can be drawn using an accumulation set. This work fits into the exploration of the computational power of signal-machines, which in turn fits into the study of the computational power of non-standard models. We show that the functions from a compact segment of the line of Real numbers whose graph coincides with the accumulation set of a signal machine are exactly the continuous functions. More generally, we show how signal machines can draw any lower semicontinuous function. We also study the question under computational constraints, with the following result: if a computable signal-machine diagram coincides with the graph of a Lipschitz-function of sufficiently small Lipschitz coefficient, then that function is the limit of a growing and computable sequence of rational step functions
APA, Harvard, Vancouver, ISO, and other styles
21

Roynard, Xavier. "Sémantisation à la volée de nuages de points 3D acquis par systèmes embarqués." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM078.

Full text
Abstract:
Cette thèse se trouve à la confluence de deux mondes en pleine explosion : la voiture autonome et l’intelligence artificielle (particulièrement l’apprentissage profond). Le premier tirant profit du deuxième, les véhicules autonomes utilisent de plus en plus de méthodes d’apprentissage profond pour analyser les données produites par ses différents capteurs (dont les LiDARs) et pour prendre des décisions. Alors que les méthodes d’apprentissage profond ont révolutionné l’analyse des images (en classification et segmentation par exemple), elles ne produisent pas des résultats aussi spectaculaires sur les nuages de points 3D, en particulier parce que les jeux de scènes données de nuages de points 3D annotés sont rares et de qualité moyenne. On présente donc dans cette thèse un nouveau jeu de données réalisé par acquisition mobile pour produire suffisamment de données et annoté à la main pour assurer une bonne qualité de segmentation. De plus ces jeux de données sont par nature déséquilibrés en nombre d’échantillon par classe et contiennent beaucoup d’échantillons redondants, on propose donc une méthode d’échantillonnage adaptée à ces jeux de données. Un autre problème rencontré quand on essaye de classifier un point à partir de son voisinage sous forme de grille voxelique est le compromis entre un pas de discrétisation fin (pour décrire précisément la surface voisine du point) et une grille de taille élevée (pour aller chercher du contexte un peu plus loin). On propose donc également des méthodes de réseaux tirant profit de voisinages multi-échelles. Ces méthodes atteignent l’état de l’art des méthodes de classification par point sur des benchmarks publics. Enfin pour respecter les contraintes imposées par les systèmes embarqués (traitement en temps réel et peu de puissance de calcul), on présente une méthode qui permet de n’appliquer les couches convolutionnelles que là où il y a de l’information à traiter
This thesis is at the confluence of two worlds in rapid growth: autonomous cars and artificial intelligence (especially deep learning). As the first takes advantage of the second, autonomous vehicles are increasingly using deep learning methods to analyze the data produced by its various sensors (including LiDARs) and to make decisions. While deep learning methods have revolutionized image analysis (in classification and segmentation for example), they do not produce such spectacular results on 3D point clouds. This is particularly true because the datasets of annotated 3D point clouds are rare and of moderate quality. This thesis therefore presents a new dataset developed by mobile acquisition to produce enough data and annotated by hand to ensure a good quality of segmentation. In addition, these datasets are inherently unbalanced in number of samples per class and contain many redundant samples, so a sampling method adapted to these datasets is proposed. Another problem encountered when trying to classify a point from its neighbourhood as a voxel grid is the compromise between a fine discretization step (for accurately describing the surface adjacent to the point) and a large grid (to look for context a little further away). We therefore also propose network methods that take advantage of multi-scale neighbourhoods. These methods achieve the state of the art of point classification methods on public benchmarks. Finally, to respect the constraints imposed by embedded systems (real-time processing and low computing power), we present a method that allows convolutional layers to be applied only where there is information to be processed
APA, Harvard, Vancouver, ISO, and other styles
22

Doumane, Amina. "On the infinitary proof theory of logics with fixed points." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC123/document.

Full text
Abstract:
Cette thèse traite de la theorie de la preuve pour les logiques a points fixes, telles que le μ-calcul, lalogique lineaire a points fixes, etc. ces logiques sont souvent munies de systèmes de preuves finitairesavec des règles d’induction à la Park. Il existe néanmoins d’autres sytèmes de preuves pour leslogiques à points fixes, qui reposent sur la notion de preuve infinitaire, mais qui sont beaucoupmoins developpés dans la litterature. L’objectif de cette thèse est de pallier à cette lacune dansl’état de l’art, en developpant la théorie de la preuve infnitaire pour les logiques a points fixes,avec deux domaines d’application en vue: les langages de programmation avec types de données(co)inductifs et la vérification des systèmes réactifs.Cette thèse contient trois partie. Dans la première, on rappelle les deux principales approchespour obtenir des systèmes de preuves pour les logiques à points fixes: les systèmes finitaires avecrègle explicite d’induction et les systèmes finitaires, puis on montre comment les deux approchesse relient. Dans la deuxième partie, on argumente que les preuves infinitaires ont effectivement unréel statut preuve-theorique, en montrant que la logique lineaire additive multiplicative avec pointsfixes admet les propriétés d’élimination des coupures et de focalisation. Dans la troisième partie,on utilise nos developpements sur les preuves infinitaires pour monter de manière constructive lacomplétude du μ-calcul lineaire relativement à l’axiomatisation de Kozen
The subject of this thesis is the proof theory of logics with fixed points, such as the μ-calculus,linear-logic with fixed points, etc. These logics are usually equipped with finitary deductive systemsthat rely on Park’s rules for induction. other proof systems for these logics exist, which relyon infinitary proofs, but they are much less developped. This thesis contributes to reduce thisdeficiency by developing the infinitary proof-theory of logics with fixed points, with two domainsof application in mind: programming languages with (co)inductive data types and verification ofreactive systems.This thesis contains three parts. In the first part, we recall the two main approaches to theproof theory for logics with fixed points: the finitary and the infinitary one, then we show theirrelationships. In the second part, we argue that infinitary proofs have a true proof-theoreticalstatus by showing that the multiplicative additive linear-logic with fixed points admits focalizationand cut-elimination. In the third part, we apply our proof-theoretical investigations to obtain aconstructive proof of completeness for the linear-time μ-calculus w.r.t. Kozen’s axiomatization
APA, Harvard, Vancouver, ISO, and other styles
23

Abelard, Simon. "Comptage de points de courbes hyperelliptiques en grande caractéristique : algorithmes et complexité." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0104/document.

Full text
Abstract:
Le comptage de points de courbes algébriques est une primitive essentielle en théorie des nombres, avec des applications en cryptographie, en géométrie arithmétique et pour les codes correcteurs. Dans cette thèse, nous nous intéressons plus particulièrement au cas de courbes hyperelliptiques définies sur des corps finis de grande caractéristique $p$. Dans ce cas de figure, les algorithmes dérivés de ceux de Schoof et Pila sont actuellement les plus adaptés car leur complexité est polynomiale en $\log p$. En revanche, la dépendance en le genre $g$ de la courbe est exponentielle et se fait cruellement sentir même pour $g=3$. Nos contributions consistent principalement à obtenir de nouvelles bornes pour la dépendance en $g$ de l'exposant de $\log p$. Dans le cas de courbes hyperelliptiques, de précédents travaux donnaient une borne quasi-quadratique que nous avons pu ramener à linéaire, et même constante dans le cas très particuliers de familles de courbes dites à multiplication réelle (RM). En genre $3$, nous avons proposé un algorithme inspiré de ceux de Schoof et de Gaudry-Harley-Schost dont la complexité, en général prohibitive, devient très raisonnable dans le cas de courbes RM. Nous avons ainsi pu réaliser des expériences pratiques et compter les points d'une courbe hyperelliptique de genre $3$ pour un $p$ de 64 bits
Counting points on algebraic curves has drawn a lot of attention due to its many applications from number theory and arithmetic geometry to cryptography and coding theory. In this thesis, we focus on counting points on hyperelliptic curves over finite fields of large characteristic $p$. In this setting, the most suitable algorithms are currently those of Schoof and Pila, because their complexities are polynomial in $\log q$. However, their dependency in the genus $g$ of the curve is exponential, and this is already painful even in genus 3. Our contributions mainly consist of establishing new complexity bounds with a smaller dependency in $g$ of the exponent of $\log p$. For hyperelliptic curves, previous work showed that it was quasi-quadratic, and we reduced it to a linear dependency. Restricting to more special families of hyperelliptic curves with explicit real multiplication (RM), we obtained a constant bound for this exponent.In genus 3, we proposed an algorithm based on those of Schoof and Gaudry-Harley-Schost whose complexity is prohibitive in general, but turns out to be reasonable when the input curves have explicit RM. In this more favorable case, we were able to count points on a hyperelliptic curve defined over a 64-bit prime field
APA, Harvard, Vancouver, ISO, and other styles
24

Costermans, Christian. "Calcul symbolique non commutatif : analyse des constantes d'arbre de fouille." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00338482.

Full text
Abstract:
L'étude de certaines variables aléatoires, comme les paramètres additifs sur les arbres hyperquaternaires de points, ou encore le nombre de maxima au sein d'un ensemble de n points indépendants, et uniformément distribués dans [0,1]^d font apparaître des suites particulières, les sommes harmoniques multiples (SHM), extensions des nombres harmoniques classiques à des multi-indices.

Nos travaux visant à appliquer des méthodes symboliques pour l'étude de ces variables aléatoires, nous remplaçons l'utilisation de multi-indices par des codages sur des alphabets distincts, et nous appuyons alors sur des résultats importants en combinatoire des mots pour les appliquer à nos suites de SHM, et aux fonctions polylogarithmes, qui sont des variantes des génératrices ordinaires des SHM. Dans les cas convergents, les deux objets convergent (respectivement lorsque z tend vers 1 et lorsque N tend vers l'infini) vers la même limite, appelée polyzêta. Pour les cas divergents, l'utilisation de séries génératrices non commutatives nous permet d'établir un théorème ``à l'Abel'', faisant apparaître une limite commune. Ce théorème permet de donner une forme explicite aux constantes d'Euler généralisées associées à des SHM divergentes et ainsi d'obtenir un algorithme très efficace pour calculer leur développement asymptotique.

Finalement, nous proposons des applications des sommes harmoniques dans le domaine des structures de données multidimensionnelles, pour lesquelles notre approche donne naissance à des calculs exacts, qui peuvent par la suite être aisément évalués asymptotiquement.
APA, Harvard, Vancouver, ISO, and other styles
25

Grusea, Simona. "Applications du calcul des probabilités à la recherche de régions génomiques conservées." Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00377445.

Full text
Abstract:
Cette thèse se concentre sur quelques sujets de probabilités et statistique liés à la génomique comparative. Dans la première partie nous présentons une approximation de Poisson composée pour calculer des probabilités impliquées dans des tests statistiques pour la significativité des régions génomiques conservées trouvées par une approche de type région de référence.
Un aspect important de notre démarche est le fait de prendre en compte l'existence des familles multigéniques. Dans la deuxième partie nous proposons trois mesures, basées sur la distance de transposition dans le groupe symétrique, pour quantifier l'exceptionalité de l'ordre des gènes dans des régions génomiques conservées. Nous avons obtenu des expressions analytiques pour leur distribution dans le cas d'une permutation aléatoire. Dans la troisième partie nous avons étudié la distribution du nombre de cycles dans le graphe des points de rupture d'une permutation signée aléatoire. Nous avons utilisé la technique ``Markov chain imbedding'' pour obtenir cette distribution en terme d'un produit de matrices de transition d'une certaine chaîne de Markov finie. La connaissance de cette
distribution fournit par la suite une très bonne approximation pour la distribution de la distance d'inversion.
APA, Harvard, Vancouver, ISO, and other styles
26

Morlot, Thomas. "La gestion dynamique des relations hauteur-débit des stations d'hydrométrie et le calcul des incertitudes associées : un indicateur de gestion, de qualité et de suivi des points de mesure." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU029/document.

Full text
Abstract:
Pour répondre à trois enjeux principaux que sont la sûreté des installations, le respect d'exigences règlementaires et l'optimisation des moyens de production, EDF-DTG a développé un réseau d'observations qui comprend les paramètres climatiques tels que la température de l'air, les précipitations et l'enneigement, mais aussi le débit des rivières. Les données collectées permettent la surveillance en « temps réel » des cours d'eau ainsi que la réalisation d'études hydrologiques quantitatives ou de dimensionnement qui nécessitent de disposer de séries patrimoniales de références. Assurer la qualité des données de débits est donc un enjeu de première importance. On ne mesure pourtant pas en continu le débit d'un cours d'eau car les dispositifs à mettre en œuvre restent onéreux et difficilement techniquement réalisable. Le plus souvent, c'est à partir de mesures en continu du niveau des rivières que l'on déduit le débit de ces dernières. Des mesures ponctuelles de débits appelées « jaugeages » permettent de caler un modèle hauteur-débit nommé « courbe de tarage ». Ce sont les équipements installés sur les rivières pour la mesure des niveaux qui sont dénommés « station d'hydrométrie ». Force est de constater que l'ensemble de ce processus constitue une manière indirecte de détermination du débit dont le niveau d'incertitude mérite d'être décrit. À chacune des valeurs de débit produites peut être associé un intervalle de confiance qui tient compte des incertitudes de chacune des étapes. La rapidité de variation de la relation hauteur-débit rend souvent difficile le suivi en temps réel du débit alors que les besoins de la surveillance temps réel des ouvrages imposent une bonne fiabilité des données en continu. Or, en ce qui concerne les stations les moins stables, la méthode historique pour produire la courbe de tarage qui repose sur une construction à partir d'un nombre suffisant de jaugeages chronologiquement contigus et bien répartis sur la plus grande gamme possible reste mal adaptée aux changements rapides ou cycliques de la relation hauteur-débit. Elle ne prend pas assez en compte les phénomènes d'érosion et de sédimentation rapides ainsi que la croissance saisonnière d'herbiers car la capacité à réaliser des jaugeages par les équipes de gestion reste en général assez limitée. Ainsi, pour améliorer la qualité et la fiabilité des données de débits, ces travaux de thèse explorent une méthode de tracé dynamique des courbes de tarage et un calcul des incertitudes associées. Une gestion dynamique de la courbe de tarage est créée de sorte que chaque jaugeage donne lieu au tracé d'une nouvelle courbe de tarage. Après le tracé, un modèle d'incertitudes est construit autour de chaque courbe de tarage. Il prend en compte les incertitudes des jaugeages, les erreurs sur la mesure de hauteur d'eau, la sensibilité de la relation hauteur-débit et l'incertitude sur le tracé lui-même. Une approche variographique est utilisée pour faire vieillir les jaugeages et les courbes de tarage afin d'obtenir un intervalle de confiance augmentant avec le temps, et se réactualisant à chaque nouveau jaugeage puisque ce dernier donne lieu au tracé d'une nouvelle courbe de tarage, plus fiable car plus récente pour l'estimation des débits à venir. Des chroniques de débit sont enfin obtenues de façon homogène et avec un intervalle de confiance prenant en compte le vieillissement des courbes générées. En prenant mieux en compte la variabilité des conditions d'écoulement et la vie des stations, la méthode créée et son modèle d'incertitudes permet de construire des outils de gestion et d'optimisation d'exploitation des points de mesure. Elle répond à des questions récurrentes en hydrométrie comme : « Combien de jaugeages faut-il réaliser en une année pour produire des données de débit avec une incertitude moyenne de X% ? » et « Quand et dans quelle gamme de débit réaliser ces jaugeages ? »
Dealer or owner operator of electricity production structures, EDF is responsible for their operation in safe condition and for the respect of the limits imposed by the regulations. Thus, the knowledge of water resources is one of EDF main concerns since the company remains preoccupied about the proper use of its facilities. The knowledge of streamflow is one of its priorities to better respond to three key issues that are plant safety, compliance with regulatory requirements, and optimizing the means of production. To meet these needs, EDF-DTG (Division Technique Générale) operates an observation network that includes both climatic parameters such as air and temperature, then the precipitations and the snow, but also the streamflow. The data collected allows real time monitoring of rivers, as well as hydrological studies and the sizing of structures. Ensuring the quality of the stream flow data is a priority. Up to now it is not possible to measure continuously the flow of a river since direct measurements of discharge are time consuming and expensive. In common cases the flow of a river can be deduced from continuous measurements of water level. Punctual measurements of discharge called gaugings allow to develop a stage-discharge relationship named rating curve. These are permanently installed equipment on rivers for measuring levels that are called hydrometric station. It is clear that the whole process constitutes an indirect way of estimating the discharge in rivers whose associated uncertainties need to be described. Quantification of confidence intervals is however not the only problem of the hydrometer. Fast changes in the stage-discharge relationship often make the streamflow real time monitoring quite difficult while the needs of continuous high reliability data is obvious. The historical method to produce the rating curve based on a construction from a suffcient number of gaugings chronologically contiguous and well distributed over the widest possible range of discharge remains poorly adapted to fast or cyclical changes of the stage-discharge relationship. The classical method does not take suffciently into account the erosion and sedimentation processes as well as the seasonal vegetation growth. Besides, the ability to perform gaugings by management teams generally remains quite limited. To get the most accurate streamflow data and to improve their reliability, this thesis explores an original dynamic method to compute rating curves based on historical gaugings from a hydrometric station while calculating the associated uncertainties. First, a dynamic rating curve assessment is created in order to compute a rating curve for each gauging of a considered hydrometric station. After the tracing, a model of uncertainty is built around each computed rating curve. It takes into account the uncertainty of gaugings, but also the uncertainty in the measurment of the water height, the sensitivity of the stage discharge relationship and the quality of the tracing. A variographic analysis is used to age the gaugings and the rating curves and obtain a final confidence interval increasing with time, and actualizing at each new gauging since it gives rise to a new rating curve more reliable because more recent for the prediction of discharge to come. Chronological series of streamflow data are the obtained homogeneously and with a confidence interval that takes into consideration the aging of the rating curves. By taking into account the variability of the flow conditions and the life of the hydrometric station, the method can answer important questions in the field of hydrometry such as « How many gauging a year have to be made so as to produce stream flow data with an average uncertainty of X\% ? » and « When and in which range of water flow do we have to realize those gaugings ? »
APA, Harvard, Vancouver, ISO, and other styles
27

Mezzarobba, Marc. "Autour de l'évaluation numérique des fonctions D-finies." Phd thesis, Ecole Polytechnique X, 2011. http://pastel.archives-ouvertes.fr/pastel-00663017.

Full text
Abstract:
Les fonctions D-finies (ou holonomes) à une variable sont les solutions d'équations différentielles linéaires à coefficients polynomiaux. En calcul formel, il s'est avéré fructueux depuis une vingtaine d'années d'en développer un traitement algorithmique unifié. Cette thèse s'inscrit dans cette optique, et s'intéresse à l'évaluation numérique des fonctions D-finies ainsi qu'à quelques problèmes apparentés. Elle explore trois grandes directions. La première concerne la majoration des coefficients des développements en série de fonctions D-finies. On aboutit à un algorithme de calcul automatique de majorants accompagné d'un résultat de finesse des bornes obtenues. Une seconde direction est la mise en pratique de l'algorithme " bit burst " de Chudnovsky et Chudnovsky pour le prolongement analytique numérique à précision arbitraire des fonctions D-finies. Son implémentation est l'occasion de diverses améliorations techniques. Ici comme pour le calcul de bornes, on s'attache par ailleurs à couvrir le cas des points singuliers réguliers des équations différentielles. Enfin, la dernière partie de la thèse développe une méthode pour calculer une approximation polynomiale de degré imposé d'une fonction D-finie sur un intervalle, via l'étude des développements en série de Tchebycheff de ces fonctions. Toutes les questions sont abordées avec un triple objectif de rigueur (résultats numériques garantis), de généralité (traiter toute la classe des fonctions D-finies) et d'efficacité. Pratiquement tous les algorithmes étudiés s'accompagnent d'implémentations disponibles publiquement.
APA, Harvard, Vancouver, ISO, and other styles
28

Maddah, Sumayya Suzy. "Formal reduction of differential systems : Singularly-perturbed linear differential systems and completely integrable Pfaffian systems with normal crossings." Thesis, Limoges, 2015. http://www.theses.fr/2015LIMO0065/document.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à l'analyse locale de systèmes différentiels linéaires singulièrement perturbés et de systèmes de Pfaff complètement intégrables et multivariés à croisements normaux. De tels systèmes ont une vaste littérature et se retrouvent dans de nombreuses applications. Cependant, leur résolution symbolique est toujours à l'étude. Nos approches reposent sur l'état de l'art de la réduction formelle des systèmes linéaires singuliers d'équations différentielles ordinaires univariées (ODS). Dans le cas des systèmes différentiels linéaires singulièrement perturbés, les complications surviennent essentiellement à cause du phénomène des points tournants. Nous généralisons les notions et les algorithmes introduits pour le traitement des ODS afin de construire des solutions formelles. Les algorithmes sous-jacents sont également autonomes (par exemple la réduction de rang, la classification de la singularité, le calcul de l'indice de restriction). Dans le cas des systèmes de Pfaff, les complications proviennent de l'interdépendance des multiples sous-systèmes et de leur nature multivariée. Néanmoins, nous montrons que les invariants formels de ces systèmes peuvent être récupérés à partir d'un ODS associé, ce qui limite donc le calcul à des corps univariés. De plus, nous donnons un algorithme de réduction de rang et nous discutons des obstacles rencontrés. Outre ces deux systèmes, nous parlons des singularités apparentes des systèmes différentiels univariés dont les coefficients sont des fonctions rationnelles et du problème des valeurs propres perturbées. Les techniques développées au sein de cette thèse facilitent les généralisations d'autres algorithmes disponibles pour les systèmes différentiels univariés aux cas des systèmes bivariés ou multivariés, et aussi aux systèmes d''equations fonctionnelles
In this thesis, we are interested in the local analysis of singularly-perturbed linear differential systems and completely integrable Pfaffian systems in several variables. Such systems have a vast literature and arise profoundly in applications. However, their symbolic resolution is still open to investigation. Our approaches rely on the state of art of formal reduction of singular linear systems of ordinary differential equations (ODS) over univariate fields. In the case of singularly-perturbed linear differential systems, the complications arise mainly from the phenomenon of turning points. We extend notions introduced for the treatment of ODS to such systems and generalize corresponding algorithms to construct formal solutions in a neighborhood of a singularity. The underlying components of the formal reduction proposed are stand-alone algorithms as well and serve different purposes (e.g. rank reduction, classification of singularities, computing restraining index). In the case of Pfaffian systems, the complications arise from the interdependence of the multiple components which constitute the former and the multivariate nature of the field within which reduction occurs. However, we show that the formal invariants of such systems can be retrieved from an associated ODS, which limits computations to univariate fields. Furthermore, we complement our work with a rank reduction algorithm and discuss the obstacles encountered. The techniques developed herein paves the way for further generalizations of algorithms available for univariate differential systems to bivariate and multivariate ones, for different types of systems of functional equations
APA, Harvard, Vancouver, ISO, and other styles
29

García, Fontán Jorge. "Singularity and Stability Analysis of vision-based controllers." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS015.

Full text
Abstract:
L’objectif de cette thèse doctoral est d’explorer les cas d’échec de l’asservissement visuel, d’un point de vue mathématique rigoureux et à l’aide d’outils de calcul exact issus de la géométrie algébrique et du calcul formel. Les cas d’échec possibles proviennent de deux sources : les singularités des équations cinématiques, et l’existence de multiples points d’équilibre, ce qui affecte la stabilité asymptotique globale des lois de contrôle. Dans cette thèse, nous avons atteint deux objectifs principaux. Le premier est de calculer les conditions de singularité pour le modèle d’interaction lié à l’observation de plus de trois droites 3D, en étendant les résultats des publications antérieurs pour trois droites. Le deuxième est le calcul des points critiques en IBVS dans l’observation de quatre points de référence, comme première étape vers l’analyse de la stabilité globale des méthodes d’asservissement visuel
The objective of this PhD thesis is to explore the failure cases of Image-Based Visual Servoing (IBVS), a class of Robotics controllers based on computer vision data. The failure cases arise from two sources: the singularities of the governing kinematic equations, and the existance of multiple stable points of equilibrium, which impacts the global asymptotic stability of the control laws. In this thesis, we study these two problems from a rigurous mathematical perspective and with the help of exact computational tools from algebraic geometry and computer algebra. Two main objectives were achieved. The first is to determine the conditions for singularity for the interaction model related to the observation of more than three straight lines in space, which extends the previous existing results for three lines. The second is the computation of the critical points (the equilibrium points) of IBVS in the observation of four reference points, as a first step towards an analysis of the global stability behaviour of visual servoing
APA, Harvard, Vancouver, ISO, and other styles
30

Le, Huu Phuoc. "On solving parametric polynomial systems and quantifier elimination over the reals : algorithms, complexity and implementations." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS554.

Full text
Abstract:
La résolution de systèmes polynomiaux est un domaine de recherche actif situé entre informatique et mathématiques. Il trouve de nombreuses applications dans divers domaines des sciences de l'ingénieur (robotique, biologie) et du numérique (cryptographie, imagerie, contrôle optimal). Le calcul formel fournit des algorithmes qui permettent de calculer des solutions exactes à ces applications, ce qui pourraient être très délicat pour des algorithmes numériques en raison de la non-linéarité. La plupart des applications en ingénierie s'intéressent aux solutions réelles. Le développement d'algorithmes permettant de les traiter s'appuie sur les concepts de la géométrie réelle effective ; la classe des ensembles semi-algébriques en constituant les objets de base. Cette thèse se concentre sur trois problèmes ci-dessous, qui apparaissent dans de nombreuses applications et sont largement étudié en calcul formel : - Classifier les solutions réelles d'un système polynomial paramétrique par les valeurs des paramètres; - Élimination de quantificateurs; - Calcul des points isolés d'un ensemble semi-algébrique. Nous concevons de nouveaux algorithmes symboliques avec une meilleure complexité que l'état de l'art. En pratique, nos implémentations efficaces de ces algorithmes sont capables de résoudre des problèmes hors d'atteinte des logiciels de l'état de l'art
Solving polynomial systems is an active research area located between computer sciences and mathematics. It finds many applications in various fields of engineering and sciences (robotics, biology, cryptography, imaging, optimal control). In symbolic computation, one studies and designs efficient algorithms that compute exact solutions to those applications, which could be very delicate for numerical methods because of the non-linearity of the given systems. Most applications in engineering are interested in the real solutions to the system. The development of algorithms to deal with polynomial systems over the reals is based on the concepts of effective real algebraic geometry in which the class of semi-algebraic sets constitute the main objects. This thesis focuses on three problems below, which appear in many applications and are widely studied in computer algebra and effective real algebraic geometry: - Classify the real solutions of a parametric polynomial system according to the parameters' value; - Elimination of quantifiers; - Computation of the isolated points of a semi-algebraic set. We designed new symbolic algorithms with better complexity than the state-of-the-art. In practice, our efficient implementations of these algorithms are capable of solving applications beyond the reach of the state-of-the-art software
APA, Harvard, Vancouver, ISO, and other styles
31

Fond, Antoine. "Localisation par l'image en milieu urbain : application à la réalité augmentée." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0028/document.

Full text
Abstract:
Dans cette thèse on aborde le problème de la localisation en milieux urbains. Inférer un positionnement précis en ville est important dans nombre d’applications comme la réalité augmentée ou la robotique mobile. Or les systèmes basés sur des capteurs inertiels (IMU) sont sujets à des dérives importantes et les données GPS peuvent souffrir d’un effet de vallée qui limite leur précision. Une solution naturelle est de s’appuyer le calcul de pose de caméra en vision par ordinateur. On remarque que les bâtiments sont les repères visuels principaux de l’humain mais aussi des objets d’intérêt pour les applications de réalité augmentée. On cherche donc à partir d’une seule image à calculer la pose de la caméra par rapport à une base de données de bâtiments références connus. On décompose le problème en deux parties : trouver les références visibles dans l’image courante (reconnaissance de lieux) et calculer la pose de la caméra par rapport à eux. Les approches classiques de ces deux sous-problèmes sont mises en difficultés dans les environnements urbains à cause des forts effets perspectives, des répétitions fréquentes et de la similarité visuelle entre façades. Si des approches spécifiques à ces environnements ont été développés qui exploitent la grande régularité structurelle de tels milieux, elles souffrent encore d’un certain nombre de limitations autant pour la détection et la reconnaissance de façades que pour le calcul de pose par recalage de modèle. La méthode originale développée dans cette thèse s’inscrit dans ces approches spécifiques et vise à dépasser ces limitations en terme d’efficacité et de robustesse aux occultations, aux changements de points de vue et d’illumination. Pour cela, l’idée principale est de profiter des progrès récents de l’apprentissage profond par réseaux de neurones convolutionnels pour extraire de l’information de haut-niveau sur laquelle on peut baser des modèles géométriques. Notre approche est donc mixte Bottom-Up/Top-Down et se décompose en trois étapes clés. Nous proposons tout d’abord une méthode d’estimation de la rotation de la pose de caméra. Les 3 points de fuite principaux des images en milieux urbains, dits points de fuite de Manhattan sont détectés grâce à un réseau de neurones convolutionnels (CNN) qui fait à la fois une estimation de ces points de fuite mais aussi une segmentation de l’image relativement à eux. Une second étape de raffinement utilise ces informations et les segments de l’image dans une formulation bayésienne pour estimer efficacement et plus précisément ces points. L’estimation de la rotation de la caméra permet de rectifier les images et ainsi s’affranchir des effets de perspectives pour la recherche de la translation. Dans une seconde contribution, nous visons ainsi à détecter les façades dans ces images rectifiées et à les reconnaître parmi une base de bâtiments connus afin d’estimer une translation grossière. Dans un soucis d’efficacité, on a proposé une série d’indices basés sur des caractéristiques spécifiques aux façades (répétitions, symétrie, sémantique) qui permettent de sélectionner rapidement des candidats façades potentiels. Ensuite ceux-ci sont classifiés en façade ou non selon un nouveau descripteur CNN contextuel. Enfin la mise en correspondance des façades détectées avec les références est opérée par un recherche au plus proche voisin relativement à une métrique apprise sur ces descripteurs [...]
This thesis addresses the problem of localization in urban areas. Inferring accurate positioning in the city is important in many applications such as augmented reality or mobile robotics. However, systems based on inertial sensors (IMUs) are subject to significant drifts and GPS data can suffer from a valley effect that limits their accuracy. A natural solution is to rely on the camera pose estimation in computer vision. We notice that buildings are the main visual landmarks of human beings but also objects of interest for augmented reality applications. We therefore aim to compute the camera pose relatively to a database of known reference buildings from a single image. The problem is twofold : find the visible references in the current image (place recognition) and compute the camera pose relatively to them. Conventional approaches to these two sub-problems are challenged in urban environments due to strong perspective effects, frequent repetitions and visual similarity between facades. While specific approaches to these environments have been developed that exploit the high structural regularity of such environments, they still suffer from a number of limitations in terms of detection and recognition of facades as well as pose computation through model registration. The original method developed in this thesis is part of these specific approaches and aims to overcome these limitations in terms of effectiveness and robustness to clutter and changes of viewpoints and illumination. For do so, the main idea is to take advantage of recent advances in deep learning by convolutional neural networks to extract high-level information on which geometric models can be based. Our approach is thus mixed Bottom- Up/Top-Down and is divided into three key stages. We first propose a method to estimate the rotation of the camera pose. The 3 main vanishing points of the image of urban environnement, known as Manhattan vanishing points, are detected by a convolutional neural network (CNN) that estimates both these vanishing points and the image segmentation relative to them. A second refinement step uses this information and image segmentation in a Bayesian model to estimate these points effectively and more accurately. By estimating the camera’s rotation, the images can be rectified and thus free from perspective effects to find the translation. In a second contribution, we aim to detect the facades in these rectified images to recognize them among a database of known buildings and estimate a rough translation. For the sake of efficiency, a series of cues based on facade specific characteristics (repetitions, symmetry, semantics) have been proposed to enable the fast selection of facade proposals. Then they are classified as facade or non-facade according to a new contextual CNN descriptor. Finally, the matching of the detected facades to the references is done by a nearest neighbor search using a metric learned on these descriptors. Eventually we propose a method to refine the estimation of the translation relying on the semantic segmentation inferred by a CNN for its robustness to changes of illumination ans small deformations. If we can already estimate a rough translation from these detected facades, we choose to refine this result by relying on the se- mantic segmentation of the image inferred from a CNN for its robustness to changes of illuminations and small deformations. Since the facade is identified in the previous step, we adopt a model-based approach by registration. Since the problems of registration and segmentation are linked, a Bayesian model is proposed which enables both problems to be jointly solved. This joint processing improves the results of registration and segmentation while remaining efficient in terms of computation time. These three parts have been validated on consistent community data sets. The results show that our approach is fast and more robust to changes in shooting conditions than previous methods
APA, Harvard, Vancouver, ISO, and other styles
32

Barkatou, My Abdelfattah. "Contribution à l'étude des équations différentielles et aux différences dans le champ complexe." Phd thesis, Grenoble INPG, 1989. http://tel.archives-ouvertes.fr/tel-00332857.

Full text
Abstract:
Un logiciel pour les solutions formelles d'équations différentielles linéaires d'ordre 2 au voisinage de points singuliers est présenté. Pour les équations d'ordre quelconque on donne une version modifiée de l'algorithme de newton. Un algorithme permettant d'obtenir une base de solutions asymptotiques d'une équation récurrente linéaire à coefficients polynomiaux est ensuite présenté. Ceci mène à l'étude des systèmes linéaires aux différences à coefficients séries de factorielles
APA, Harvard, Vancouver, ISO, and other styles
33

Kalantari, Mahzad. "APPROCHE DIRECTE DE L'ESTIMATION AUTOMATIQUE DE L'ORIENTATION 3D D'IMAGES." Phd thesis, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00433525.

Full text
Abstract:
Récemment, la géomatique grand public s'est emparée de la représentation 3D des bâtiments. Le besoin d'acquérir des images et de les restituer en 3D, sous forme de maquettes parfaitement fidèles à la réalité, est ainsi devenu immense. On a donc vu depuis une décennie, se construire des véhicules capables de photographier en stéréoscopie des villes entières, et il a fallu concevoir les algorithmes capables de traiter ces énormes quantités d'images. Très naturellement, les industriels en charge de ces problèmes se sont tournés vers les outils de vision par ordinateur et de robotique, très bien adaptés aux calculs temps réel, oubliant l'essentiel de l'héritage de la photogrammétrie, orientée quant à elle vers une extrême précision, jugée ici comme une moindre priorité. Néanmoins, les algorithmes publiés en vision par ordinateur présentaient de réels défauts lorsqu'ils étaient appliqués à des surfaces planes alors que ce cas est extrêmement courant dans des scènes urbaines pour traiter les façades de bâtiments. Les recherches que nous avons menées ont porté sur la recherche de solutions nouvelles, capables d'exploiter les spécificités de telles images : tout d'abord, nos travaux ont cherché à accélérer l'orientation relative des images, en tirant bénéfice des points de fuite figurant dans celles-ci. Pour ce faire, de nouvelles méthodes d'extraction automatique de ces points ont été mises au point et évaluées plus performantes que celles disponibles jusqu'ici. Ensuite, nos recherches ont porté sur les moyens de corriger le défaut évoqué précédemment pour les surfaces planes, et de nouveaux algorithmes capables de donner en temps quasi-réel de bonnes solutions d'orientation relative pour de telles scènes ont été développés. A cette fin, de nouveaux outils mathématiques ont été utilisés : les bases de Gröbner. En rupture complète avec les solutions linéaires habituelles, ils permettent en effet une résolution directe des équations sous leur forme polynomiale. Ils évitent de passer par l'habituelle linéarisation, qui nécessitait une solution approchée parfois difficile à trouver dans les usages de photogrammétrie terrestre. Finalement, nos travaux ont porté sur les moyens d'accélérer les méthodes d'orientation relative en exploitant opportunément la connaissance de la direction verticale, obtenue par exemple à l'aide du nouvel algorithme de détection des points de fuite. Au total, la thèse présente une remise à plat générale des solutions permettant l'orientation et la localisation de tout un ensemble d'images.
APA, Harvard, Vancouver, ISO, and other styles
34

Fond, Antoine. "Localisation par l'image en milieu urbain : application à la réalité augmentée." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0028.

Full text
Abstract:
Dans cette thèse on aborde le problème de la localisation en milieux urbains. Inférer un positionnement précis en ville est important dans nombre d’applications comme la réalité augmentée ou la robotique mobile. Or les systèmes basés sur des capteurs inertiels (IMU) sont sujets à des dérives importantes et les données GPS peuvent souffrir d’un effet de vallée qui limite leur précision. Une solution naturelle est de s’appuyer le calcul de pose de caméra en vision par ordinateur. On remarque que les bâtiments sont les repères visuels principaux de l’humain mais aussi des objets d’intérêt pour les applications de réalité augmentée. On cherche donc à partir d’une seule image à calculer la pose de la caméra par rapport à une base de données de bâtiments références connus. On décompose le problème en deux parties : trouver les références visibles dans l’image courante (reconnaissance de lieux) et calculer la pose de la caméra par rapport à eux. Les approches classiques de ces deux sous-problèmes sont mises en difficultés dans les environnements urbains à cause des forts effets perspectives, des répétitions fréquentes et de la similarité visuelle entre façades. Si des approches spécifiques à ces environnements ont été développés qui exploitent la grande régularité structurelle de tels milieux, elles souffrent encore d’un certain nombre de limitations autant pour la détection et la reconnaissance de façades que pour le calcul de pose par recalage de modèle. La méthode originale développée dans cette thèse s’inscrit dans ces approches spécifiques et vise à dépasser ces limitations en terme d’efficacité et de robustesse aux occultations, aux changements de points de vue et d’illumination. Pour cela, l’idée principale est de profiter des progrès récents de l’apprentissage profond par réseaux de neurones convolutionnels pour extraire de l’information de haut-niveau sur laquelle on peut baser des modèles géométriques. Notre approche est donc mixte Bottom-Up/Top-Down et se décompose en trois étapes clés. Nous proposons tout d’abord une méthode d’estimation de la rotation de la pose de caméra. Les 3 points de fuite principaux des images en milieux urbains, dits points de fuite de Manhattan sont détectés grâce à un réseau de neurones convolutionnels (CNN) qui fait à la fois une estimation de ces points de fuite mais aussi une segmentation de l’image relativement à eux. Une second étape de raffinement utilise ces informations et les segments de l’image dans une formulation bayésienne pour estimer efficacement et plus précisément ces points. L’estimation de la rotation de la caméra permet de rectifier les images et ainsi s’affranchir des effets de perspectives pour la recherche de la translation. Dans une seconde contribution, nous visons ainsi à détecter les façades dans ces images rectifiées et à les reconnaître parmi une base de bâtiments connus afin d’estimer une translation grossière. Dans un soucis d’efficacité, on a proposé une série d’indices basés sur des caractéristiques spécifiques aux façades (répétitions, symétrie, sémantique) qui permettent de sélectionner rapidement des candidats façades potentiels. Ensuite ceux-ci sont classifiés en façade ou non selon un nouveau descripteur CNN contextuel. Enfin la mise en correspondance des façades détectées avec les références est opérée par un recherche au plus proche voisin relativement à une métrique apprise sur ces descripteurs [...]
This thesis addresses the problem of localization in urban areas. Inferring accurate positioning in the city is important in many applications such as augmented reality or mobile robotics. However, systems based on inertial sensors (IMUs) are subject to significant drifts and GPS data can suffer from a valley effect that limits their accuracy. A natural solution is to rely on the camera pose estimation in computer vision. We notice that buildings are the main visual landmarks of human beings but also objects of interest for augmented reality applications. We therefore aim to compute the camera pose relatively to a database of known reference buildings from a single image. The problem is twofold : find the visible references in the current image (place recognition) and compute the camera pose relatively to them. Conventional approaches to these two sub-problems are challenged in urban environments due to strong perspective effects, frequent repetitions and visual similarity between facades. While specific approaches to these environments have been developed that exploit the high structural regularity of such environments, they still suffer from a number of limitations in terms of detection and recognition of facades as well as pose computation through model registration. The original method developed in this thesis is part of these specific approaches and aims to overcome these limitations in terms of effectiveness and robustness to clutter and changes of viewpoints and illumination. For do so, the main idea is to take advantage of recent advances in deep learning by convolutional neural networks to extract high-level information on which geometric models can be based. Our approach is thus mixed Bottom- Up/Top-Down and is divided into three key stages. We first propose a method to estimate the rotation of the camera pose. The 3 main vanishing points of the image of urban environnement, known as Manhattan vanishing points, are detected by a convolutional neural network (CNN) that estimates both these vanishing points and the image segmentation relative to them. A second refinement step uses this information and image segmentation in a Bayesian model to estimate these points effectively and more accurately. By estimating the camera’s rotation, the images can be rectified and thus free from perspective effects to find the translation. In a second contribution, we aim to detect the facades in these rectified images to recognize them among a database of known buildings and estimate a rough translation. For the sake of efficiency, a series of cues based on facade specific characteristics (repetitions, symmetry, semantics) have been proposed to enable the fast selection of facade proposals. Then they are classified as facade or non-facade according to a new contextual CNN descriptor. Finally, the matching of the detected facades to the references is done by a nearest neighbor search using a metric learned on these descriptors. Eventually we propose a method to refine the estimation of the translation relying on the semantic segmentation inferred by a CNN for its robustness to changes of illumination ans small deformations. If we can already estimate a rough translation from these detected facades, we choose to refine this result by relying on the se- mantic segmentation of the image inferred from a CNN for its robustness to changes of illuminations and small deformations. Since the facade is identified in the previous step, we adopt a model-based approach by registration. Since the problems of registration and segmentation are linked, a Bayesian model is proposed which enables both problems to be jointly solved. This joint processing improves the results of registration and segmentation while remaining efficient in terms of computation time. These three parts have been validated on consistent community data sets. The results show that our approach is fast and more robust to changes in shooting conditions than previous methods
APA, Harvard, Vancouver, ISO, and other styles
35

Santoso, Mas Simon. "Simulation d'écoulements fluides à partir de données réelles." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0011.

Full text
Abstract:
Les nuages de points sont des objets mathématiques permettant de décrire de manière discrète des fonctions à plusieurs variables. Ils sont principalement utilisés dans le domaine statistique mais on les retrouve également en géométrie afin de représenter des variétés géométriques complexes. Il est aujourd'hui difficile d'intégrer les objets représentés par ces nuages de points dans des calculs éléments finis car l'intégration de ces nuages de points requiert la reconstruction de la variété ainsi que la génération d'un maillage surfacique qu'il faut intégrer dans un maillage volumique. Ces opérations sont souvent basées sur des processus itératifs et sont extrêmement coûteuses en temps car les nuages de points utilisés sont de très grande taille. La méthodologie développée dans cette thèse permet d'immerger des nuages de points dans un domaine maillé sans passer par les étapes de reconstruction de surface et de génération de maillage. On utilise la technique d'immersion de volume adaptée aux nuages de points. Cette technique est couplée avec une méthode d'adaptation de maillage. Cela nous permettra de générer un maillage anisotropique adapté autour des zones d'intérêt. On utilise ensuite la méthode variationnelle multi-échelle afin de simuler des écoulements fluides. Cette technique est une extension de la méthode éléments finis classique permettant de simuler des écoulements à forte convection et à haut nombre de Reynolds. La dernière partie de ce manuscrit présente quelques cas d'application dans le domaine aérodynamique, hydrodynamique et urbains
Points clouds are mathematical objects that allows to describe discretely multivariable functions. They are mainly used in the statistical domain but also in geometrical manifolds. It is nowadays a real challenge to immerse the previous manifolds in finite element computation. Indeed, the immersion of those points clouds requires the reconstruction of the surface of the manifold and the generation of a surfacic mesh. As those operations are often based on an iterative process, they are extremely time-consuming as points clouds are usually massive. The method developed in this thesis allows to immerse points clouds in a meshed domain without the surface reconstruction and mesh generations steps. For that purpose, we use the Volume Immersion Method adapted to point clouds. We coupled this method with an adaped mesh generation technique. Then we are able to generate a monolithic anisotropic mesh, adapted around interest zones. We also use the variational multi-scale method to simulate fluid flow. This method is an extension of the classical finite element method and allows to simulate fluid flow. The last part of this thesis introduce some applications cases in the aerodynamic and urbans domains
APA, Harvard, Vancouver, ISO, and other styles
36

Thiam, C. O. "Dosimétrie en radiothérapie et curiethérapie par simulation Monte-Carlo GATE sur grille informatique." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00196405.

Full text
Abstract:
Les traitements de radiothérapie nécessitent la délivrance d'une dose précise au niveau de la tumeur et une bonne connaissance de la dose dans les zones avoisinantes. Ce calcul, habituellement réalisé par les TPS, exige des outils précis et rapides. La plate-forme de simulation Monte-Carlo GATE, basée sur le code GEANT4, offre un outil performant pour les applications de la médecine nucléaire mais aussi des fonctionnalités permettant de faire des calculs dosimétriques de façon fiable et rapide. Dans cette thèse, deux études ont été menées en parallèle: la validation de la plate-forme GATE pour la modélisation de sources d'électrons et de photons de basse énergie et l'exploitation optimisée des infrastructures de grille informatique pour réduire les temps de calculs des simulations. GATE a été validé pour le calcul de points kernels de dose d'électrons mono-énergétiques et comparé avec les résultats d'autres études Monte-Carlo. Une étude détaillée a été faite sur la gestion du dépôt d'énergie au cours du transport des électrons dans GEANT4. Nous nous sommes intéressés aussi à la validation de GATE concernant le dépôt de dose de photons de très basse énergie ( < 35 keV). Pour cela, trois modèles de sources radioactives utilisés en curiethérapie et contenant de l'iode 125 (modèle 2301 de Best Medical International ; Symmetra de UroMed/Bebig et 6711 d'Amersham) ont été simulés. Plusieurs caractéristiques dosimétriques ont été étudiées selon les recommandations du groupe de travail N°43 de l'AAPM (American Association of Physicists in Medecine). Les résultats obtenus montrent une bonne concordance entre GATE et les études prises comme référence et recommandées par l'AAPM. L'utilisation de simulations Monte-Carlo dans les applications médicales pour une meilleure définition de la dose déposée dans un volume tumoral, nécessite des temps de calculs longs. Afin de réduire ces temps, nous avons exploité l'infrastructure de la grille EGEE sur laquelle nos simulations sont distribuées en utilisant des techniques novatrices pour la prise en compte de l'état de la grille de calcul. Les temps nécessaires pour la simulation d'une radiothérapie utilisant des électrons ont été réduits jusqu'à un facteur 30. Une plate-forme web basée sur le portail GENIUS a été développée pour rendre accessible de façon simple toutes les modalités de soumission et de gestion des simulations ainsi que la gestion de données médicales (informations sur les patients, images CT, IRM...) sur les ressources de la grille. L'objectif final visé est de faire de GATE un outil fiable et utilisé en clinique pour des planifications de traitements de radiothérapie avec des temps de calculs acceptables (pas plus de 12 heures de calcul).
APA, Harvard, Vancouver, ISO, and other styles
37

Vitu, Stéphane. "Développement d'une méthode de contributions de groupes pour le calcul du coefficient d'interaction binaire de l'équation d'état de Peng-Robinson et mesures d'équilibres liquide-vapeur de systèmes contenant du CO2." Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL080N/document.

Full text
Abstract:
Nous avons développé une méthode de contributions de groupes permettant d'estimer, en fonction de la température, le coefficient d'interaction binaire (kij) de l'équation d'état de Peng Robinson. Notre approche rend cette équation d'état prédictive. Douze groupes sont définis et il est possible d'estimer les kij pour n'importe quel mélange renfermant des alcanes, des aromatiques, des naphtènes et du CO2. Les diagrammes de phase et lieux des points critiques des systèmes binaires sont bien prédits par le modèle baptisé PPR78 (Predictive 1978, Peng Robinson equation of state). Ce modèle permet également de traiter efficacement les mélanges multiconstituants comme les pétroles bruts et les gaz naturels. A l'aide d'une cellule haute pression, des mesures d'équilibres liquide - vapeur ont été réalisées pour la première fois sur deux systèmes binaires : CO2 méthylcyclopentane et CO2 isopropylcyclohexane. Des mesures ont également été faites sur un mélange renfermant du CO2 et cinq hydrocarbures
A group contribution method allowing the estimation of the temperature dependent binary interaction parameter (kij) for the Peng Robinson equation of state is proposed. Doing so, a new predictive thermodynamic model is born. Twelve groups are defined and it is now possible to estimate the kij for any mixture containing alkanes, aromatics, naphthenes and CO2, whatever the temperature. The model, called PPR78 (Predictive 1978, Peng Robinson equation of state), gives a good description of the phase diagrams and critical locus of binary systems. This predictive model can be successfully employed for the simulation of many mixtures such as natural gases and petroleum fluids. Using a high pressure visual cell, vapor liquid equilibria measurements were made for two binary systems: CO2 methylcyclopentane and CO2 isopropylcyclohexane. For these two systems, no literature data were available. Finally, we measured bubble and dew points on a five component hydrocarbon mixture in the presence of CO2
APA, Harvard, Vancouver, ISO, and other styles
38

Jafar, Samir. "Programmation des systèmes parallèles distribués : tolérance aux pannes, résilience et adaptabilité." Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00085169.

Full text
Abstract:
Les grilles et les grappes sont des architectures de plus en plus utilisées dans le domaine du calcul scientifique distribué. Le nombre important de constituants hétérogènes (processeurs, mémoire, interconnexion) dans ces architectures dynamiques font que le risque de défaillance est très important. Compte tenu de la durée considérable de l'exécution d'une application parallèle distribuée, ce risque de défaillance doit être contrôlé par l'utilisation de technique de tolérance aux pannes.
Dans ce travail, la représentation de l'état de l'exécution d'un programme parallèle est un graphe, dynamique, de flot de données construit à l'exécution. Cette description du parallélisme est indépendante du nombre de ressources et donc exploitée pour résoudre les problèmes liés à la dynamicité des plateformes considérées. La définition de formats portables pour la représentation des noeuds du graphe résout les problèmes d'hétérogénéité. La sauvegarde du graphe de flot de données d'une application durant son exécution sur une plateforme, constitue des points de reprise pour cette application. Par la suite, une reprise est possible sur un autre type ou nombre de processus. Deux méthodes de sauvegarde / reprise, avec une analyse formelle de leurs complexités, sont présentées : SEL (Systematic Event Logging) et TIC (Theft-Induced Checkpointing). Des mesures expérimentales d'un prototype sur des applications caractéristiques montrent que le surcoût à l'exécution peut être amorti, permettant d'envisager des exécutions tolérantes aux pannes qui passent à l'échelle.
APA, Harvard, Vancouver, ISO, and other styles
39

Angladon, Vincent. "Room layout estimation on mobile devices." Phd thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/20745/1/ANGLADON_Vincent.pdf.

Full text
Abstract:
Room layout generation is the problem of generating a drawing or a digital model of an existing room from a set of measurements such as laser data or images. The generation of floor plans can find application in the building industry to assess the quality and the correctness of an ongoing construction w.r.t. the initial model, or to quickly sketch the renovation of an apartment. Real estate industry can rely on automatic generation of floor plans to ease the process of checking the livable surface and to propose virtual visits to prospective customers. As for the general public, the room layout can be integrated into mixed reality games to provide a better immersiveness experience, or used in other related augmented reality applications such room redecoration. The goal of this industrial thesis (CIFRE) is to investigate and take advantage of the state-of-the art mobile devices in order to automate the process of generating room layouts. Nowadays, modern mobile devices usually come a wide range of sensors, such as inertial motion unit (IMU), RGB cameras and, more recently, depth cameras. Moreover, tactile touchscreens offer a natural and simple way to interact with the user, thus favoring the development of interactive applications, in which the user can be part of the processing loop. This work aims at exploiting the richness of such devices to address the room layout generation problem. The thesis has three major contributions. We first show how the classic problem of detecting vanishing points in an image can benefit from an a-priori given by the IMU sensor. We propose a simple and effective algorithm for detecting vanishing points relying on the gravity vector estimated by the IMU. A new public dataset containing images and the relevant IMU data is introduced to help assessing vanishing point algorithms and foster further studies in the field. As a second contribution, we explored the state of-the-art of real-time localization and map optimization algorithms for RGB-D sensors. Real-time localization is a fundamental task to enable augmented reality applications, and thus it is a critical component when designing interactive applications. We propose an evaluation of existing algorithms for the common desktop set-up in order to be employed on a mobile device. For each considered method, we assess the accuracy of the localization as well as the computational performances when ported on a mobile device. Finally, we present a proof of concept of application able to generate the room layout relying on a Project Tango tablet equipped with an RGB-D sensor. In particular, we propose an algorithm that incrementally processes and fuses the 3D data provided by the sensor in order to obtain the layout of the room. We show how our algorithm can rely on the user interactions in order to correct the generated 3D model during the acquisition process.
APA, Harvard, Vancouver, ISO, and other styles
40

Akhbari, Mahsa. "Analyse des intervalles ECG inter- et intra-battement sur des modèles d'espace d'état et de Markov cachés." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT026.

Full text
Abstract:
Les maladies cardiovasculaires sont l'une des principales causes de mortalité chez l'homme. Une façon de diagnostiquer des maladies cardiaques et des anomalies est le traitement de signaux cardiaques tels que le ECG. Dans beaucoup de ces traitements, des caractéristiques inter-battements et intra-battements de signaux ECG doivent être extraites. Ces caractéristiques comprennent les points de repère des ondes de l’ECG (leur début, leur fin et leur point de pic), les intervalles significatifs et les segments qui peuvent être définis pour le signal ECG. L'extraction des points de référence de l'ECG consiste à identifier l'emplacement du pic, de début et de la fin de l'onde P, du complexe QRS et de l'onde T. Ces points véhiculent des informations cliniquement utiles, mais la segmentation precise de chaque battement de l'ECG est une tâche difficile, même pour les cardiologues expérimentés.Dans cette thèse, nous utilisons un cadre bayésien basé sur le modèle dynamique d'ECG proposé par McSharry. Depuis ce modèle s'appuyant sur la morphologie des ECG, il peut être utile pour la segmentation et l'analyse d'intervalles d'ECG. Afin de tenir compte de la séquentialité des ondes P, QRS et T, nous utiliserons également l'approche de Markov et des modèles de Markov cachés (MMC). En bref dans cette thèse, nous utilisons un modèle dynamique (filtre de Kalman), un modèle séquentiel (MMC) et leur combinaison (commutation de filtres de Kalman (SKF)). Nous proposons trois méthodes à base de filtres de Kalman, une méthode basée sur les MMC et un procédé à base de SKF. Nous utilisons les méthodes proposées pour l'extraction de points de référence et l'analyse d'intervalles des ECG. Le méthodes basées sur le filtrage de Kalman sont également utilisés pour le débruitage d'ECG, la détection de l'alternation de l'onde T, et la détection du pic R de l'ECG du foetus.Pour évaluer les performances des méthodes proposées pour l'extraction des points de référence de l'ECG, nous utilisons la base de données "Physionet QT", et une base de données "Swine" qui comprennent ECG annotations de signaux par les médecins. Pour le débruitage d'ECG, nous utilisons les bases de données "MIT-BIH Normal Sinus Rhythm", "MIT-BIH Arrhythmia" et "MIT-BIH noise stress test". La base de données "TWA Challenge 2008 database" est utilisée pour la détection de l'alternation de l'onde T. Enfin, la base de données "Physionet Computing in Cardiology Challenge 2013 database" est utilisée pour la détection du pic R de l'ECG du feotus. Pour l'extraction de points de reference, la performance des méthodes proposées sont évaluées en termes de moyenne, écart-type et l'erreur quadratique moyenne (EQM). Nous calculons aussi la sensibilité des méthodes. Pour le débruitage d'ECG, nous comparons les méthodes en terme d'amélioration du rapport signal à bruit
Cardiovascular diseases are one of the major causes of mortality in humans. One way to diagnose heart diseases and abnormalities is processing of cardiac signals such as ECG. In many of these processes, inter-beat and intra-beat features of ECG signal must be extracted. These features include peak, onset and offset of ECG waves, meaningful intervals and segments that can be defined for ECG signal. ECG fiducial point (FP) extraction refers to identifying the location of the peak as well as the onset and offset of the P-wave, QRS complex and T-wave which convey clinically useful information. However, the precise segmentation of each ECG beat is a difficult task, even for experienced cardiologists.In this thesis, we use a Bayesian framework based on the McSharry ECG dynamical model for ECG FP extraction. Since this framework is based on the morphology of ECG waves, it can be useful for ECG segmentation and interval analysis. In order to consider the time sequential property of ECG signal, we also use the Markovian approach and hidden Markov models (HMM). In brief in this thesis, we use dynamic model (Kalman filter), sequential model (HMM) and their combination (switching Kalman filter (SKF)). We propose three Kalman-based methods, an HMM-based method and a SKF-based method. We use the proposed methods for ECG FP extraction and ECG interval analysis. Kalman-based methods are also used for ECG denoising, T-wave alternans (TWA) detection and fetal ECG R-peak detection.To evaluate the performance of proposed methods for ECG FP extraction, we use the "Physionet QT database", and a "Swine ECG database" that include ECG signal annotations by physicians. For ECG denoising, we use the "MIT-BIH Normal Sinus Rhythm", "MIT-BIH Arrhythmia" and "MIT-BIH noise stress test" databases. "TWA Challenge 2008 database" is used for TWA detection and finally, "Physionet Computing in Cardiology Challenge 2013 database" is used for R-peak detection of fetal ECG. In ECG FP extraction, the performance of the proposed methods are evaluated in terms of mean, standard deviation and root mean square of error. We also calculate the Sensitivity for methods. For ECG denoising, we compare methods in their obtained SNR improvement
APA, Harvard, Vancouver, ISO, and other styles
41

Duraffourg, Simon. "Analyse de la tenue en endurance de caisses automobiles soumises à des profils de mission sévérisés." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1142.

Full text
Abstract:
Une caisse automobile est un ensemble complexe formé de plusieurs éléments qui sont souvent constitués de matériaux différents et assemblés principalement par points soudés, généralement à plus de 80%. Au stade de la conception, plusieurs critères doivent être vérifiés numériquement et confirmés expérimentalement par le prototype de la caisse, dont sa tenue en endurance. Dans le contexte économique actuel, la politique de réduction des dépenses énergétiques ou autres a conduit les constructeurs automobiles à optimiser les performances des véhicules actuels, en particulier en réduisant de façon très conséquente la masse de leur caisse. Des problèmes liés à la tenue structurelle ou à la tenue en fatigue de la caisse sont alors apparus. Afin d'être validé, le prototype de caisse doit avoir une résistance suffisante pour supporter les essais de fatigue. Les tests de validation sur bancs d'essais réalisés en amont sur un prototype sont très coûteux pour l'industriel, en particulier lorsque les tests d'essais en fatigue sur la caisse ne permettent pas de confirmer les zones d'apparition des fissures identifiées par simulations numériques. Le sujet de la thèse se limitera à ce dernier point. Il porte sur l'ensemble des analyses à mettre en oeuvre afin d'étudier la tenue en endurance de caisses automobiles soumises à des profils de mission sévérisés. L'objectif principal est de mettre au point un processus d'analyse en simulation numérique permettant de garantir un bon niveau de prédictivité de tenue en endurance des caisses automobiles. On entend par bon niveau de prédictivité, le fait d'être en mesure de corréler correctement les résultats d'essais associés aux profils de missions sévérisés classiquement utilisés dans les plans de validation de la caisse. Cette thèse a conduit à :_ analyser le comportement mécanique de la caisse et les forces d'excitations appliquées au cours de l'essai de validation,_ établir une nouvelle méthode de réduction d'un chargement pour les calculs en endurance,_ mettre au point une nouvelle modélisation EF des liaisons soudées par points,_ améliorer les modèles de prédiction de durée de vie des PSR. Les études menées ont ainsi permis d'améliorer le niveau de prédiction des calculs en fatigue de la caisse afin :_ d'identifier la majorité des zones réellement critiques sur la caisse,_ d'évaluer de manière fiable de la criticité relative de chacune de ces zones,_ d'estimer de façon pertinente la durée de vie associée à chacune de ces zones
A body-in-white (biw) is a complex structure which consists of several elements that are made of different materials and assembled mainly by spot welds, generally above 80%. At the design stage, several criteria must be verified numerically and experimentally by the car prototype, as the biw durability. In the current economic context, the policy of reducing energy and other costs led automotive companies to optimize the vehicle performances, in particular by reducing very consistently the mass of the biw. As a consequences, some structural design problems appeared. In order to be validated, validation test benches are carried out upstream on a prototype vehicle. They are very costly to the manufacturer, especially when fatigue tests do not confirm the cracks areas identified by numerical simulations. The thesis is focused on numerical biw durability analysis. It covers all the numerical analysis to be implemented to study the biw durability behavior. The main objective is to develop a numerical simulation process to ensure a good level of durability prediction. It means to be able to have a good correlation level between test bench results and numerical fatigue life prediction. This thesis has led to:_ analyze the biw mechanical behavior and the excitation forces applied to the biw during the validation tests,_ establish a new fatigue data editing technique to simplify load signal,_ create a new finite element spot weld model,_ develop a new fatigue life prediction of spot welds. The studies have thus improved the level of biw fatigue life prediction by:_ identifying the majority of critical areas on the full biw,_ reliably assessing the relative criticality of each area,_ accurately estimating the lifetime associated with each of these areas
APA, Harvard, Vancouver, ISO, and other styles
42

Boufama, Boubakeur. "Reconstruction tridimensionnelle en vision par ordinateur : cas des caméras non étalonnées." Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00005080.

Full text
Abstract:
"la 4e de couverture indique : Cette thèse concerne principalement la reconstruction tridimensionnelle à partir d'images issues de caméras non étalonnées. Deux autres sujets liés à la reconstruction ont été traités: le calcul de la géométrie épipolaire et la mise en correspondance des points dans les images
Nous nous plaçons dans le cas général d'une séquence d'images obtenues avec une ou plusieurs caméras inconnues. Quand seuls les points observés dans les images sont utilisés la seule reconstruction possible est de type projective. Nous proposons d'abord une méthode pour calculer la reconstruction projective, ensuite, nous montrons comment passer d'une telle reconstruction à une reconstruction euclidienne. Ce passage utilise des contraintes euclidiennes issues de connaissances a priori sur la scène tridimensionnelle. Enfin, nous proposons une méthode de reconstruction euclidienne lorsque les paramètres intrinsèques des caméras sont approximativement connus. Cette méthode utilise un paramétrage permettant une grande stabilité dans les calculs
Toutes les méthodes proposées sont validées avec des exemples d'images réelles et simulées
APA, Harvard, Vancouver, ISO, and other styles
43

Almansa, Andrés. "Echantillonnage, interpolation et détection : applications en imagerie satellitaire." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2002. http://tel.archives-ouvertes.fr/tel-00665725.

Full text
Abstract:
Cette thèse aborde quelques-uns des problèmes qui surviennent dans la conception d'un système complet de vision par ordinateur : de l'échantillonnage à la détection de structures et leur interprétation. La motivation principale pour traiter ces problèmes a été fournie par le CNES et la conception des satellites d'observation terrestre, ainsi que par les applications de photogrammétrie et vidéo-surveillance chez Cognitech, Inc. pendant les étapes finales de ce travail, mais les techniques développées sont d'une généralité suffisante pour présenter un intérêt dans d'autres systèmes de vision par ordinateur. Dans une première partie nous abordons une étude comparative des différents systèmes d'échantillonnage d'images sur un réseau régulier, soit carré soit hexagonal, à l'aide d'une mesure de résolution effective, qui permet de déterminer la quantité d'information utile fournie par chaque pixel du réseau, une fois que l'on a séparé les effets du bruit et du repliement spectral. Cette mesure de résolution est utilisée à son tour pour améliorer des techniques de zoom et de restauration basées sur la minimisation de la variation totale. Ensuite l'étude comparative est poursuivie en analysant dans quelle mesure chacun des systèmes permet d'éliminer les perturbations du réseau d'échantillonnage dues aux micro-vibrations du satellite pendant l'acquisition. Après une présentation des limites théoriques du problème, nous comparons les performances des méthodes de reconstruction existantes avec un nouvel algorithme, mieux adapté aux conditions d'échantillonnage du CNES. Dans une deuxième partie nous nous intéressons à l'interpolation de modèles d'élévation de terrain, dans deux cas particuliers: l'interpolation de lignes de niveau, et l'étude des zones dans lesquelles une méthode de corrélation à partir de paires stéréo ne fournit pas des informations fiables. Nous étudions les liens entre les méthodes classiques utilisées en sciences de la terre tels que Krigeage ou distances géodésiques, et la méthode AMLE, et nous proposons une extension de la théorie axiomatique de l'interpolation qui conduit à cette dernière. Enfin une évaluation expérimentale permet de conclure qu'une nouvelle combinaison du Krigeage avec l'AMLE fournit les meilleures interpolations pour les modèles de terrain. Enfin nous nous intéressons à la détection d'alignements et de leurs points de fuite dans une image, car ils peuvent être utilisés aussi bien pour la construction de modèles d'élévation urbains, que pour résoudre des problèmes de photogrammétrie et calibration de caméras. Notre approche est basée sur la théorie de la Gestalt, et son implémentation effective récemment proposée par Desolneux-Moisan-Morel à l'aide du principe de Helmholtz. Le résultat est un détecteur de points de fuite sans paramètres, qui n'utilise aucune information a priori sur l'image ou la caméra.
APA, Harvard, Vancouver, ISO, and other styles
44

Digne, Julie. "Inverse geometry : from the raw point cloud to the 3d surface : theory and algorithms." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2010. http://tel.archives-ouvertes.fr/tel-00610432.

Full text
Abstract:
Many laser devices acquire directly 3D objects and reconstruct their surface. Nevertheless, the final reconstructed surface is usually smoothed out as a result of the scanner internal de-noising process and the offsets between different scans. This thesis, working on results from high precision scans, adopts the somewhat extreme conservative position, not to loose or alter any raw sample throughout the whole processing pipeline, and to attempt to visualize them. Indeed, it is the only way to discover all surface imperfections (holes, offsets). Furthermore, since high precision data can capture the slightest surface variation, any smoothing and any sub-sampling can incur in the loss of textural detail.The thesis attempts to prove that one can triangulate the raw point cloud with almost no sample loss. It solves the exact visualization problem on large data sets of up to 35 million points made of 300 different scan sweeps and more. Two major problems are addressed. The first one is the orientation of the complete raw point set, an the building of a high precision mesh. The second one is the correction of the tiny scan misalignments which can cause strong high frequency aliasing and hamper completely a direct visualization.The second development of the thesis is a general low-high frequency decomposition algorithm for any point cloud. Thus classic image analysis tools, the level set tree and the MSER representations, are extended to meshes, yielding an intrinsic mesh segmentation method.The underlying mathematical development focuses on an analysis of a half dozen discrete differential operators acting on raw point clouds which have been proposed in the literature. By considering the asymptotic behavior of these operators on a smooth surface, a classification by their underlying curvature operators is obtained.This analysis leads to the development of a discrete operator consistent with the mean curvature motion (the intrinsic heat equation) defining a remarkably simple and robust numerical scale space. By this scale space all of the above mentioned problems (point set orientation, raw point set triangulation, scan merging, segmentation), usually addressed by separated techniques, are solved in a unified framework.
APA, Harvard, Vancouver, ISO, and other styles
45

Le, Garrec Thomas. "Simulation directe du bruit de bord de fuite d'un profil par une méthode multi domaines." Phd thesis, 2008. http://pastel.archives-ouvertes.fr/pastel-00004430.

Full text
Abstract:
L'analyse des mécanismes de génération de bruit pour des tronçons d'aile placés dans des écoulements à grand nombre de Reynolds s'inscrit dans le cadre de la réduction du bruit de cellule des avions. Afin d'améliorer la compréhension des phénomènes mis en jeu, nous proposons de développer un code aéroacoustique permettant d'obtenir directement le bruit d'un profil. Nous détaillons en particulier le développement de méthodes numériques minimisant les erreurs de dispersion et de dissipation afin de préserver la nature des ondes acoustiques. Une stratégie de calcul multi échelles multi pas de temps permet la réalisation de raffinements locaux en maillage structuré et ainsi la réduction du coût de calcul. Ce code est mis en oeuvre pour simuler le bruit rayonné par un profil NACA0012 en 2D à faible nombre de Reynolds et étudier l'influence de l'angle d'attaque. Parmi les mécanismes de génération de bruit, le mécanisme de bruit tonal peut se rencontrer dans des configurations avec des nombres de Reynolds modérés. Une discussion sur l'existence de ce mécanisme par un profil NACA0012 à Reynolds 200 000 est proposée. Nous menons aussi une étude numérique 3D de l'influence du confinement expérimental, créé par les parois d'une soufflerie, sur les champs aérodynamique et acoustique autour d'un profil NACA0018 à Reynolds 160 000. Enfin, le bruit de bord de fuite d'un profil NACA0012 tronqué à grand nombre de Reynolds (2.32 millions) est calculé par simulation des grandes échelles. Une première comparaison des résultats est effectuée avec la base de données expérimentale EXAVAC. Les principaux mécanismes de génération sonore sont bien reproduits par notre approche multi domaine.
APA, Harvard, Vancouver, ISO, and other styles
46

Mokhtari, Djamila. "Détection des chutes par calcul homographique." Thèse, 2012. http://hdl.handle.net/1866/8869.

Full text
Abstract:
La vidéosurveillance a pour objectif principal de protéger les personnes et les biens en détectant tout comportement anormal. Ceci ne serait possible sans la détection de mouvement dans l’image. Ce processus complexe se base le plus souvent sur une opération de soustraction de l’arrière-plan statique d’une scène sur l’image. Mais il se trouve qu’en vidéosurveillance, des caméras sont souvent en mouvement, engendrant ainsi, un changement significatif de l’arrière-plan; la soustraction de l’arrière-plan devient alors problématique. Nous proposons dans ce travail, une méthode de détection de mouvement et particulièrement de chutes qui s’affranchit de la soustraction de l’arrière-plan et exploite la rotation de la caméra dans la détection du mouvement en utilisant le calcul homographique. Nos résultats sur des données synthétiques et réelles démontrent la faisabilité de cette approche.
The main objective of video surveillance is to protect persons and property by detecting any abnormal behavior. This is not possible without detecting motion in the image. This process is often based on the concept of subtraction of the scene background. However in video tracking, the cameras are themselves often in motion, causing a significant change of the background. So, background subtraction techniques become problematic. We propose in this work a motion detection approach, with the example application of fall detection. This approach is free of background subtraction for a rotating surveillance camera. The method uses the camera rotation to detect motion by using homographic calculation. Our results on synthetic and real video sequences demonstrate the feasibility of this approach.
APA, Harvard, Vancouver, ISO, and other styles
47

Tournier, Evelyne. "Solutions formelles d'équations différentielles‎ : le logiciel de calcul formel DESIR‎ : étude théorique et réalisation." Habilitation à diriger des recherches, 1987. http://tel.archives-ouvertes.fr/tel-00323706.

Full text
Abstract:
Le sujet de la thèse se rattache au calcul formel. La première partie est consacrée à l'étude et à la réalisation d'un logiciel de résolution d'équations différentielles. Ce logiciel DESIR est écrit pour le système de calcul formel REDUCE. Il permet d'obtenir les solutions formelles d'équations différentielles, d'un ordre quelconque, au voisinage de points réguliers et irréguliers. La deuxième partie est une étude approfondie des équations aux différences. Cette étude est orientée vers la recherche d'algorithme permettant de construire une base de solutions asymptotiques d'une équation aux différences linéaires à coefficients dans un corps de séries formelles
APA, Harvard, Vancouver, ISO, and other styles
48

Boufama, Boubakeur. "Reconstruction tridimensionnelle en vision par ordinateur : cas des cameras non etalonnees." Phd thesis, 1994. http://tel.archives-ouvertes.fr/tel-00005080.

Full text
Abstract:
Cette these concerne principalement la reconstruction tridimensionnelle a partir d'images issues de cameras non etalonnees. Deux autres sujets lies a la reconstruction ont ete traites : le calcul de la geometrie epipolaire et la mise en correspondance des points dans les images. Nous nous placons dans le cas general d'une sequence d'images obtenues avec une ou plusieurs cameras de carateristiques inconnues. Quand seuls les points observes dans les images sont utilisees la seule reconstruction possible est de type projective. Nous proposons d'abord une methode pour calculer la reconstruction projective, ensuite, montrons comment passer d'une telle reconstruction a une reconstruction euclidienne. Ce passage utilise des contraintes euclidiennes issues de connaissances a priori sur la scene tridimensionnelle. Enfin, nous proposons une methode de reconstruction euclidienne lorsque les parametres intrinseques des cameras sont approximativement connus. Cette methode utilise un parametrage permettant une grande stabilite dans les calculs Toutes les methodes proposees sont validees avec des exemples d'images reelles ou simulees.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography