Siga este enlace para ver otros tipos de publicaciones sobre el tema: Noyaux de produit scalaire.

Tesis sobre el tema "Noyaux de produit scalaire"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 16 mejores tesis para su investigación sobre el tema "Noyaux de produit scalaire".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Wacker, Jonas. "Random features for dot product kernels and beyond". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS241.

Texto completo
Resumen
Les noyaux de produit scalaire, tels que les noyaux polynomiaux et exponentiels (softmax), sont parmi les noyaux les plus utilisés en apprentissage automatique, car ils permettent de modéliser les interactions entre les composantes des vecteurs d'entrée, ce qui est crucial dans des applications telles que la vision par ordinateur, le traitement du langage naturel et les systèmes de recommandation. Cependant, un inconvénient fondamental des modèles statistiques basés sur les noyaux est leur évolutivité limitée à un grand nombre de données d'entrée, ce qui nécessite de recourir à des approximations. Dans cette thèse, nous étudions des techniques pour linéariser les méthodes à base de noyaux de produit scalaire au moyen d'approximations de caractéristiques aléatoires. En particulier, nous nous concentrons sur une analyse de variance pour étudier et améliorer leur efficacité statistique
Dot product kernels, such as polynomial and exponential (softmax) kernels, are among the most widely used kernels in machine learning, as they enable modeling the interactions between input features, which is crucial in applications like computer vision, natural language processing, and recommender systems. However, a fundamental drawback of kernel-based statistical models is their limited scalability to a large number of inputs, which requires resorting to approximations. In this thesis, we study techniques to linearize kernel-based methods by means of random feature approximations and we focus on the approximation of polynomial kernels and more general dot product kernels to make these kernels more useful in large scale learning. In particular, we focus on a variance analysis as a main tool to study and improve the statistical efficiency of such sketches
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Beaucoup, Franck. "Estimations quantitatives sur les polynômes liées à la répartition des racines". Lyon 1, 1994. http://www.theses.fr/1994LYO19004.

Texto completo
Resumen
Nous etudions les liens existant, pour les polynomes d'une variable complexe, entre la repartition des racines en termes de secteurs angulaires et la taille des differentes normes. Nous partons d'un resultat de erdos et turan et nous ameliorons les estimations fournies par ce resultat lorsque des contraintes specifiques sont imposees aux racines, a savoir lorsque celles-ci sont astreintes a se trouver dans un meme secteur angulaire convexe ou un meme demi-plan. Nous determinons les repartitions des racines qui rendent minimales differentes normes de tels polynomes. Pour ce faire nous introduisons et nous utilisons de nouveaux resultats sur la norme de bombieri et sur les points maximaux des polynomes d'une variable complexe. Nous minimisons egalement, sous des contraintes similaires sur la repartition des racines, des produits scalaires de polynomes d'une variable complexe. Le resultat principal que nous utilisons dans cette partie est le theoreme de coincidence de walsh. Le produit scalaire de bombieri s'avere etre un excellent outil pour ce type de problemes
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Boukary, Baoua Oumarou. "Application du produit star de Berezin à l'étude des paires de Gelfand résolubles". Metz, 2000. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2000/Boukary_Baoua.Oumarou.SMZ0001.pdf.

Texto completo
Resumen
Nous étudions dans la première partie, une condition géométrique portant sur les paires de Gelfand grâce à la théorie des états cohérents. Ainsi, nous définissons une certaine fonction génératrice de la multiplicité qui est donc un nouveau critère portant sur les paires de Gelfand. Dans la seconde partie, nous étudions les fonctions sphériques associées à la paire de Gelfand (SO(n,R) [fois]T, Hn). L'utilisation du produit star de Berezin induit un choix judicieux de produit scalaire qui nous permet de calculer ces fonctions
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Macovschi, Stefan Eugen. "Estimations quantitatives sur les polynômes pour différentes normes hilbertiennes". Lyon 1, 1998. http://www.theses.fr/1998LYO10197.

Texto completo
Resumen
Les travaux de cette these concernent des estimations quantitatives pour des polynomes en une ou plusieurs variables. L'outil de base est le produit scalaire de bombieri, qui donne une norme hilbertienne dependant du degre des polynomes et dont les poids sont les inverses des coefficients binomiaux. Le premier chapitre traite des polynomes homogenes a plusieurs variables pour lesquels des normes d'operateurs differentiels sont completement calculees : on utilise le fait que pour la norme de bombieri l'adjoint d'un operateur de derivation est un operateur de multiplication. Le second chapitre introduit des normes de bombieri a des ordres differents du degre du polynome considere : plusieurs inegalites sont etablies a partir d'hypotheses sur la localisation des racines, ainsi que des comparaisons fines avec differentes autres normes, dont la norme euclidienne et la mesure de mahler. Dans le chapitre trois on exploite la formule d'evaluation du produit scalaire de bombieri combinee avec le principe de contraction de walsh : cela permet de generaliser et d'obtenir des versions quantitatives de plusieurs resultats classiques en geometrie des polynomes sans pour autant utiliser la derivation. Le quatrieme chapitre traite d'une nouvelle norme hilbertienne, issue de la norme de bombieri, mais qui s'applique a une classe de fonctions entieres ; avec cette norme on peut resoudre des equations differentielles polynomiales de tout degre avec un controle de la stabilite de la solution. On ameliore la constante impliquee dans ce controle, et on prouve plusieurs inegalites interessantes pour la norme du produit de deux polynomes. Dans ces trois derniers chapitres qui traitent de polynomes complexes en une variable on prouve de nouvelles conditions pour qu'un polynome ait toutes ses racines dans le disque unite : ces conditions sont de plus directement calculables a partir des coefficients.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Feiz, Amir-Ali. "Simulations des transferts turbulents dans une conduite cylindrique en rotation". Marne-la-Vallée, 2006. http://www.theses.fr/2006MARN0281.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Le, Calvez Caroline. "Accélération de méthodes de Krylov pour la résolution de systèmes linéaires creux sur machines parallèles". Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-225.pdf.

Texto completo
Resumen
Nous nous placons dans le cadre de la resolution de systemes lineaires creux non symetriques par des methodes de krylov sur machines paralleles. Nous considerons les methodes fom(m) et gmres(m), qui sont performantes d'un point de vue de la convergence, mais presentent l'inconvenient de ne pas etre completement paralleles. Nous constatons en effet que la plus part du temps d'execution est consacree a des produits scalaires engendrant des communications sur des donnees de taille faible, mais induisant de nombreux points de synchronisation, qui constituent une perte de temps non negligeable. Une autre grande partie de temps est consacree aux produits matrice vecteur, qui sont des operations deja paralleles. Notre objectif etant de rendre la resolution d'un systeme lineaire toujours plus rapide et robuste, nous ameliorons les methodes fom(m) et gmres(m) a ces deux niveaux: - tout d'abord, en optant pour un produit scalaire discret, qui est moins couteux que celui euclidien. Ce changement permet de remplacer les produits scalaires initiaux par un produit matrice vecteur suivi d'une seule communication. Les nouvelles methodes ainsi derivees, appelees adop, sont plus rapides sur machines paralleles, - puis, en ameliorant la convergence de ces methodes et leur robustesse, notamment en diminuant le nombre total de produits matrice vecteur de facon a diminuer le temps d'execution. Nous tentons d'accelerer les methodes fom(m) et gmres(m) en remediant aux pertes d'informations dues a leur redemarrage, et ceci grace a des techniques de deflation. L'utilisation de la methode ira nous permet de diminuer a la fois les couts de stockage, la complexite et les couts de communications, ce qui rend les methodes resultantes idfom et idgmres plus efficaces et moins couteuses.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Dicuangco, Lilibeth. "On duadic codes and split group codes". Nice, 2006. http://www.theses.fr/2006NICE4098.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Florent, Alice. "Contraindre les distributions de partons dans les noyaux grâce au boson W produit dans les collisions pPb à 5,02 TeV avec CMS". Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112339/document.

Texto completo
Resumen
Les mesures de bosons W produits en collisions pPb à une énergie dans le centre de masse de 5,02 TeV sont présentées dans le canal de désintégration muonique. Les données collectées par le détecteur CMS représentent une luminosité intégrée de 34,6 nb-1. Les sections efficaces de production ainsi que plusieurs asymétries sont mesurées en fonction de la pseudo-rapidité du muon, pour des muons ayant tous une impulsion transverse supérieure à 25 GeV/c. Ces observables sont comparées à deux paramétrisations de distributions partoniques (PDF). La première (CT10) ne considère pas de modifications nucléaires sur les PDF et les PDF de noyaux sont donc une superposition de PDF de protons libres. La seconde (EPS09) tient compte de modifications nucléaires. Les mesures obtenues confirment légèrement certaines modifications et une observable en particulier, dévie des deux paramétrisations. Les données pourraient indiquer une dépendance des PDF nucléaires en fonction de la saveur du quark de valence
Measurements of W bosons produced in pPb collisions at nucleon-nucleon centre-of-mass energy $\sqrt{s\rm{_{NN}}}=5.02$ TeV are presented in the muon plus neutrino decay channel. The data sample of 34.6 nb-1 integrated luminosity was collected by the CMS detector. The W boson differential cross sections, lepton-charge asymmetry and forward/backward asymmetry are computed as a function of the lepton pseudorapidity, for muons of transverse momentum higher than 25 GeV/$c$. These observables are compared to two sets of parton distributions (PDF). One of two assumes nuclear modifications (EPS09) while the other is simply a superposition of free proton PDF CT10). Some of the observables deviate from expectations based on unmodified and currently available nuclear PDF. One in particular slightly deviates from both predictions which may indicates dependence of nuclear PDF as a function of the valence quark flavor
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

BRAGHIN, FABIO LUIS. "I. Les ondes de isospin dans la matiere nucleaire chaude les resonances geantes dans les noyaux. Ii. Quelques aspects de l'evolution temporelle des fluctuations quantiques d'un champ scalaire en auto interaction". Paris 11, 1995. http://www.theses.fr/1995PA112515.

Texto completo
Resumen
I. La fonction de reponse de la matiere nucleaire chaude a une petite source exterieure est calculee en utilisant les forces effectives de skyrme et les resultats concernant la voie isovectorielle sont analyses. Un mode collectif du type de son zero (ondes de isospin) est trouve a temperature zero pour les forces effectives possedant un terme dependant de la densite non nul avec une masse effective non trop petite, mettant en evidence les correlations a longue portee. Pour une force sans terme dependant de la densite et avec une masse effective tres petite la fonction de reponse montre tres peu de collectivite et ressemble celle d'un gaz de particules independantes. La masse effective des nucleons determine la frequence du mode pour une impulsion transferee petite fixee. Avec l'augmentation de la temperature (t) le mode s'enlargit jusqu'a sa disparition quand t est de l'ordre de 4 a 7 mev. La matiere nucleaire montre un comportement fortement correle, ceci indique que le terme de dependance en densite de l'interaction est plus relevant pour la densite de saturation de la matiere nucleaire. Ii. Une etude de l'evolution temporelle basee sur l'approximation de champ moyen dans la representation fonctionnelle de schrodinger est faite pour les fluctuations quantiques d'un champ scalaire en auto interaction quartique dans les espaces de minkowski et de de sitter. Dans l'espace de minkowski on calcule des fonctions de correlations associees a des polarizabilites et susceptibilites generalisees dans les deux phases du potentiel par l'introduction de sources exterieures. Une methode numerique qui respecte la structure symplectique des equations du mouvement est developpe dans une dimension espacial et plusieurs examples d'evolution temporelle sont montres. Dans l'espace de de sitter des solutions auto similaires pour les equations du mouvement avec une interaction quartique sont trouvees, et dans un repere particulier il est possible de definir les phases symetrique et a symetrie brisee du potentiel. La stabilite des solutions est verifiee
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Biedinger, Jean-Marie. "Contribution à l'étude de la diffusion du champ électromagnétique dans le fer massif : application à l'analyse d'un moteur asynchrone à rotor massif (M.A.R.M.)". Compiègne, 1986. http://www.theses.fr/1986COMPE061.

Texto completo
Resumen
L'étude est consacrée à l'analyse de la diffusion du champ électromagnétique dans le fer massif en vue d'applications liées principalement aux convertisseurs d'énergie électromécanique. Elle comporte deux parties principales : A - Le rappel des équations macroscopiques générales et leurs diverses formulations mathématiques variationnelles ; B - La modélisation numérique par la méthode des éléments finis et sa confrontation expérimentale sur un Moteur Asynchrone à Rotor Massif (M. A. R. M. ) de 1 MW - 20 000 tr/mn. Dans la première partie, on analyse d'abord la nature tridimensionnelle des phénomènes électromagnétiques dans un M. A. R. M. , pour en déduire une modélisation cohérente, par l'intermédiaire des potentiels du champ. Puis on apporte une clarification sur les diverses formulations variationnelles possibles de ces équations en terme de multi-potentiels : - potentiel vecteur magnétique et scalaire électrique pour la zone conductrice avec courants induits ; - potentiel scalaire magnétique pour la zone non conductrice ; - potentiel scalaire magnétique réduit pour la zone des courants sources. Le modèle ainsi développé permet de prendre en compte, avec le minimum de degrés de liberté, la présence des courants induits et de la saturation magnétique dans des corps solides conducteurs mobiles. Diverses simplifications suggérées par l'expérience sont ensuite envisagées. Dans la deuxième partie, on transpose numériquement ces modèles mathématiques en termes d'éléments finis. On y développe tout d'abord des modèles simplifiés à deux dimensions. L'introduction de conditions limites de propagation, bien adaptées à la nature du champ tournant dans les machines électriques, et du modèle temporel sinusoïdal équivalent, rend ensuite possible l'approche tridimensionnelle. L'application au M. A. R. M. Permet l'étude de configurations adaptées au rotor massif (rainurage circonférentiel et/ou axial, cage), ainsi que des effets de longueur finie par exemple
The present study concerns the analysis of the electromagnetic field diffusion in solid iron, applied to electromechanical energy converters. It comprises two principal parts : the review of the general macroscopic equations and their various mathematical formulations ; the finite element formulation and its comparison to experimental results obtained on a 1 MW - 20 000 rpm Solid Rotor Induction Machine (S. R. I. M. ). The first part begins with the analysis of the tridimensional character of the electromagnetic problems in a S. R. I. M. , in order to deduce a coherent formulation based on field potentials. Then it recalls the different variational formulations of these equations in terms of various potentials : magnetic vector potential and electric scalar potential inside the conducting region ; magnetic scalar potential in the non-conducting region ; reduced magnetic scalar potential inside the current source region. This model is able to take into account the eddy currents and the magnetic saturation in the conducting moving parts, with a minimum set of degrees of freedom. Other possible simplifications are examinated, according to the experience. The second part is allowed to the numerical implementation using the finite element method. First, simplified two-dimensional models are developed. Then the use of the propagation boundary conditions, well adapted to the nature of the rotating field in a polyphased machine, and of the equivalent sinusoidal time-varying model, authorises a tridimensional computation. The application of these models to the S. R. I. M. Allows to study particular configurations of the unlaminated rotor (as axial slits, squirrel-cage, circumferential grooves), or the effects of the finite length for example
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Bourse, Florian. "Functional encryption for inner-product evaluations". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE067/document.

Texto completo
Resumen
Le chiffrement fonctionnel est une technique émergente en cryptographie dans laquelle une autorité toute puissante est capable de distribuer des clés permettant d’effectuer des calculs sur des données chiffrées de manière contrôlée. La mode dans ce domaine est de construire des schémas qui sont aussi expressifs que possible, c’est-à-dire du chiffrement fonctionnel qui permet l’évaluation de n’importe quel circuit. Ces contributions délaissent souvent l’efficacité ainsi que la sécurité. Elles reposent sur des hypothèses fortes, très peu étudiées, et aucune construction n’est proche d’être pratique. Le but de cette thèse est d’attaquer ce défi sous un autre angle : nous essayons de construire des schémas de chiffrement fonctionnel les plus expressifs que nous le pouvons en se basant sur des hypothèses standards, tout en conservant la simplicité et l’efficacité des constructions. C’est pourquoi nous introduisons la notion de chiffrement fonctionnel pour l’évaluation de produits scalaires, où les messages sont des vecteurs ~x, et l’autorité peut transmettre des clés correspondants à des vecteurs ~y qui permettent l’évaluation du produit scalaire h~x, ~yi. Cette fonctionnalité possède immédiatement des applications directes, et peut aussi être utilisé dans d’autres constructions plus théoriques, leproduit scalaire étant une opération couramment utilisée. Enfin, nous présentons deux structures génériques pour construire des schémas de chiffrement fonctionnels pour le produit scalaire, ainsi que des instanciations concrètes dont la sécurité repose sur des hypothèses standards. Nous comparons aussi les avantages et inconvénients de chacune d’entre elles
Functional encryption is an emerging framework in which a master authority can distribute keys that allow some computation over encrypted data in a controlled manner. The trend on this topic is to try to build schemes that are as expressive possible, i.e., functional encryption that supports any circuit evaluation. These results are at the cost of efficiency and security. They rely on recent, not very well studied assumptions, and no construction is close to being practical. The goal of this thesis is to attack this challenge from a different angle: we try to build the most expressive functional encryption scheme we can get from standard assumption, while keeping the constructions simple and efficient. To this end, we introduce the notion of functional encryption for inner-product evaluations, where plaintexts are vectors ~x, and the trusted authority delivers keys for vectors ~y that allow the evaluation of the inner-product h~x, ~yi. This functionality already offers some direct applications, and it can also be used for theoretical constructions, as inner-product is a widely used operation. Finally, we present two generic frameworks to construct inner-product functional encryption schemes, as well as some concrete instantiations whose security relies on standard assumptions. We also compare their pros and cons
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Ibarrondo, Luis Alberto. "Privacy-preserving biometric recognition systems with advanced cryptographic techniques". Electronic Thesis or Diss., Sorbonne université, 2023. https://theses.hal.science/tel-04058954.

Texto completo
Resumen
Traitant des données très sensibles, les systèmes de gestion d'identité doivent fournir une protection adéquate de la confidentialité. En utilisant le calcul multipartite (MPC), le chiffrement homomorphe (HE) et le chiffrement fonctionnel (FE), cette thèse aborde la conception et la mise en œuvre de systèmes biométriques préservant la confidentialité pour de multiples scénarios. Nous améliorons les travaux existants dans le domaine, en équilibrant la précision et la performance avec les garanties de sécurité. Nous allons au-delà des adversaires semi-honnêtes pour garantir la correction face aux adversaires malveillants. Enfin, nous abordons la question de la fuite des données biométriques lors de la révélation du résultat, un problème de confidentialité souvent négligé dans la littérature. Les principales contributions de cette thèse sont : - Une nouvelle solution d'identification de visage construite sur la FE pour produits scalaires atténuant la fuite d'entrée. - Un nouveau protocole de calcul à deux parties, Funshade, pour préserver la confidentialité des opérations biométriques de calcul de distance avec seuil. - Une méthode innovante d'identification biométrique préservant la confidentialité, basée sur la notion de test de groupe appelée Grote. - Un nouveau protocole de décryptage distribué avec masquage collaboratif traitant la fuite d'entrée, appelé Colmade. - Un protocole de calcul tripartite à majorité honnête, Banners, pour réaliser l'inférence malicieusement sécurisée de réseaux neuronaux binarisés. - Une bibliothèque Python HE nommée Pyfhel, offrant une abstraction de haut niveau et des fonctionnalités de bas niveau, avec des applications dans l'enseignement
Dealing with highly sensitive data, identity management systems must provide adequate privacy protection as they leverage biometrics technology. Wielding Multi-Party Computation (MPC), Homomorphic Encryption (HE) and Functional Encryption (FE), this thesis tackles the design and implementation of practical privacy-preserving biometric systems, from the feature extraction to the matching with enrolled users. This work is consecrated to the design of secure biometric solutions for multiple scenarios, putting special care to balance accuracy and performance with the security guarantees, while improving upon existing works in the domain. We go beyond privacy preservation against semi-honest adversaries by also ensuring correctness facing malicious adversaries. Lastly, we address the leakage of biometric data when revealing the output, a privacy concern often overlooked in the literature. The main contributions of this thesis are: • A new face identification solution built on FE-based private inner product matching mitigating input leakage. • A novel efficient two-party computation protocol, Funshade, to preserve the privacy of biometric thresholded distance metric operations. • An innovative method to perform privacy-preserving biometric identification based on the notion of group testing named Grote. • A new distributed decryption protocol with collaborative masking addressing input leakage, dubbed Colmade. • An honest majority three-party computation protocol, Banners, to perform maliciously secure inference of Binarized Neural Networks. • A HE Python library named Pyfhel, offering a high-level abstraction and low-level functionalities, with applications in teaching
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Tucker, Ida. "Chiffrement fonctionnel et signatures distribuées fondés sur des fonctions de hachage à projection, l'apport des groupes de classe". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN054.

Texto completo
Resumen
Un des enjeux actuels de la recherche en cryptographie est la mise au point de primitives cryptographiques avancées assurant un haut niveau de confiance. Dans cette thèse, nous nous intéressons à leur conception, en prouvant leur sécurité relativement à des hypothèses algorithmiques bien étudiées. Mes travaux s'appuient sur la linéarité du chiffrement homomorphe, qui permet d'effectuer des opérations linéaires sur des données chiffrées. Précisément, je suis partie d'un tel chiffrement, introduit par Castagnos et Laguillaumie à CT-RSA'15, ayant la particularité d'avoir un espace des messages clairs d'ordre premier. Afin d'aborder une approche modulaire, j'ai conçu à partir de ce chiffrement des outils techniques (fonctions de hachage projectives, preuves à divulgation nulle de connaissances) qui offrent un cadre riche se prêtant à de nombreuses applications. Ce cadre m'a d'abord permis de construire des schémas de chiffrement fonctionnel; cette primitive très expressive permet un accès mesuré à l'information contenue dans une base de données chiffrée. Puis, dans un autre registre, mais à partir de ces mêmes outils, j'ai conçu des signatures numériques à seuil, permettant de partager une clé secrète entre plusieurs utilisateurs, de sorte que ceux-ci doivent collaborer afin de produire des signatures valides. Ce type de signatures permet entre autres de sécuriser les portefeuilles de crypto-monnaie. De nets gains d'efficacité, notamment en termes de bande passante, apparaissent en instanciant ces constructions à l'aide de groupes de classes. Mes travaux se positionnent d'ailleurs en première ligne du renouveau que connait, depuis quelques années, l’utilisation de ces objets en cryptographie
One of the current challenges in cryptographic research is the development of advanced cryptographic primitives ensuring a high level of confidence. In this thesis, we focus on their design, while proving their security under well-studied algorithmic assumptions.My work grounds itself on the linearity of homomorphic encryption, which allows to perform linear operations on encrypted data. Precisely, I built upon the linearly homomorphic encryption scheme introduced by Castagnos and Laguillaumie at CT-RSA'15. Their scheme possesses the unusual property of having a prime order plaintext space, whose size can essentially be tailored to ones' needs. Aiming at a modular approach, I designed from their work technical tools (projective hash functions, zero-knowledge proofs of knowledge) which provide a rich framework lending itself to many applications.This framework first allowed me to build functional encryption schemes; this highly expressive primitive allows a fine grained access to the information contained in e.g., an encrypted database. Then, in a different vein, but from these same tools, I designed threshold digital signatures, allowing a secret key to be shared among multiple users, so that the latter must collaborate in order to produce valid signatures. Such signatures can be used, among other applications, to secure crypto-currency wallets. Significant efficiency gains, namely in terms of bandwidth, result from the instantiation of these constructions from class groups. This work is at the forefront of the revival these mathematical objects have seen in cryptography over the last few years
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Xiong, Hao. "Modélisation multiscalaire de matériaux granulaires en application aux problèmes d'ingénierie géotechnique". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAI096/document.

Texto completo
Resumen
Les matériaux granulaires présentent une large gamme de lois de comportement lorsqu'ils sont soumis à différents chemins de chargement. Le développement de modèles constitutifs permettant de rendre compte de ces caractéristiques a été une préoccupation constante de nombreux chercheurs depuis des décennies. Parmi les différentes options possibles, les approches par changement d’échelle semblent prometteuses. Dans ces approches, le modèle constitutif est formulé en reliant les propriétés macroscopiques du matériau aux propriétés micro-structurelles correspondantes.Cette thèse propose un modèle micromécanique tridimensionnel (le modèle H-3D) prenant en compte une échelle intermédiaire (méso-échelle). Il permet ainsi de décrire de manière naturelle un grand nombre de caractéristiques constitutives des matériaux granulaires non cohésifs. La comparaison entre essais expérimentaux et simulations numériques révèle la capacité prédictive de ce modèle. En particulier, des simulations réalisées avec différentes pressions de confinement et différents rapports de vide initiaux ont permis de démontrer la capacité du modèle à rendre compte quantitativement de l'état critique sans nécessiter d’équation spécifique et de paramètre d'état critique. Le modèle est également analysé à l’échelle microscopique, où l'évolution de certains paramètres microscopiques clés est présentée.Une approche multi-échelle 3D est ensuite présentée afin d’étudier le comportement mécanique d'un échantillon macroscopique constitué d'un assemblage granulaire, en tant que problème aux conditions limites. Le cœur de cette approche est un couplage multi-échelle, où la méthode des éléments finis est utilisée pour résoudre le problème aux conditions limites et le modèle H-3D est utilisé pour calculer la loi de comportement à l’échelle d’un volume élémentaire représentatif. Cette approche fournit un moyen pratique de relier les observations macroscopiques avec les mécanismes microscopiques intrinsèques. Des conditions de chargement biaxiaux en déformations planes sont appliquées pour simuler le phénomène de localisation des déformations. Une série de tests est effectuée, où différents motifs de rupture sont observés et analysés. Un système de bande de cisaillement apparaît naturellement dans un spécimen initialement homogène. En définissant la zone de la bande de cisaillement, les mécanismes microstructuraux sont étudiés séparément à l'intérieur et à l'extérieur de celle-ci. En outre, une analyse directionnelle de travail du second ordre est effectuée en appliquant des petits incréments de contrainte à différents états de contrainte-déformation sur des chemins de chargement biaxiaux drainés. Le travail de second ordre normalisé, introduit comme un indicateur d’instabilité du système, est analysé non seulement à l’échelle macroscopique mais aussi à l’échelle microscopique.Enfin, une analyse du travail de second ordre appliquée à des problèmes géotechniques et utilisant l'approche multi-échelle développée dans cette thèse est présentée. L'approche multi-échelle est utilisée afin de simuler des problèmes aux conditions limites homogènes et non homogènes, offrant ainsi la possibilité d’interpréter et de comprendre les micro-mécanismes qui à l’origine des phénomènes de rupture dans les problèmes géotechniques. Cette approche multi-échelle utilise un schéma numérique d’intégration dynamique-explicite afin de pouvoir étudier la rupture post-pic sans avoir à recourir à des outils mathématiques trop sophistiqués. Ainsi, en changeant le type de condition de chargement de déplacement à contrainte lorsque le système atteint son état limite, son effondrement se traduit par une augmentation soudaine de l'énergie cinétique découlant de la différence entre les travaux internes et externes du second ordre
Granular materials exhibit a wide spectrum of constitutive features when submitted under various loading paths. Developing constitutive models which succeed in accounting for these features has been challenged by scientists for decades. A promising direction for achieving this can be the multi-scale approach. Through this approach, the constitutive model is formulated by relating material’s macroscopic properties to their corresponding microstructure properties.This thesis proposes a three-dimensional micro-mechanical model (the so-called 3D-H model) taking into account an intermediate scale (meso-scale) which makes it possible to describe a variety of constitutive features in a natural way. The comparison between experimental tests and numerical simulations reveals the predictive capability of this model. Particularly, several simulations are carried out with different confining pressures and initial void ratios, based on the fact that the critical state is quantitatively described without requiring any critical state formulations and parameter. The model is also analyzed from a microscopic view, wherein the evolution of some key microscopic parameters is investigated.Then, a 3D multi-scale approach is presented to investigate the mechanical behavior of a macroscopic specimen consisting of a granular assembly, as a boundary value problem. The core of this approach is a multiscale coupling, wherein the finite element method is used to solve a boundary value problem and the 3D-H model is employed to build the micro constitutive relationship used at a representative volume element scale. This approach provides a convenient way to link the macroscopic observations with intrinsic microscopic mechanisms. Plane-strain biaxial loading conditions are selected to simulate the occurrence of strain localization. A series of tests are performed, wherein distinct failure patterns are observed and analyzed. A system of shear band naturally appears in a homogeneous setting specimen. By defining the shear band area, microstructural mechanisms are separately investigated inside and outside the shear band. Moreover, a second-order work directional analysis is performed by applying strain probes at different stress-strain states along drained biaxial loading paths. The normalized second order work introduced as an indicator of an unstable trend of the system is analyzed not only on the macroscale but also on the microscale.Finally, a second order work analysis in application to geotechnical problems by using the aforementioned multiscale approach is presented. The multiscale approach is used to simulate a homogeneous and a non-homogeneous BVP, opening a road to interpret and understand the micro mechanisms hiding behind the occurrence of failure in geotechnical issues. This multiscale approach utilizes an explicit-dynamic integral method so that the post-peak failure can be investigated without requiring over-sophisticated mathematical ingredients. Thus, by switching the loading method from a strain control to a stress control at the limit state, the collapse of the system can be reflected in an abrupt increase of kinetic energy, stemming from the difference between both internal and external second-order works
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Ben, Kahla Haithem. "Sur des méthodes préservant les structures d'une classe de matrices structurées". Thesis, Littoral, 2017. http://www.theses.fr/2017DUNK0463/document.

Texto completo
Resumen
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche
The classical linear algebra methods, for calculating eigenvalues and eigenvectors of a matrix, or lower-rank approximations of a solution, etc....do not consider the structures of matrices. Such structures are usually destroyed in the numerical process. Alternative structure-preserving methods are the subject of an important interest mattering to the community. This thesis establishes a contribution in this field. The SR decomposition is usually implemented via the symplectic Gram-Schmidt algorithm. As in the classical case, a loss of orthogonality can occur. To remedy this, we have proposed two algorithms RSGSi and RMSGSi, where the reorthogonalization of a current set of vectors against the previously computed set is performed twice. The loss of J-orthogonality has significantly improved. A direct rounding error analysis of symplectic Gram-Schmidt algorithm is very hard to accomplish. We managed to get around this difficulty and give the error bounds on the loss of the J-orthogonality and on the factorization. Another way to implement the SR decomposition is based on symplectic Householder transformations. An optimal choice of free parameters provided an optimal version of the algorithm SROSH. However, the latter may be subject to numerical instability. We have proposed a new modified version SRMSH, which has the advantage of being numerically more stable. By a detailes study, we are led to two new variants numerically more stables : SRMSH and SRMSH2. In order to build a SR algorithm of complexity O(n³), where 2n is the size of the matrix, a reduction to the condensed matrix form (upper J-Hessenberg form) via adequate similarities is crucial. This reduction may be handled via the algorithm JHESS. We have shown that it is possible to perform a reduction of a general matrix, to an upper J-Hessenberg form, based only on the use of symplectic Householder transformations. The new algorithm, which will be called JHSH algorithm, is based on an adaptation of SRSH algorithm. We are led to two news variants algorithms JHMSH and JHMSH2 which are significantly more stable numerically. We found that these algortihms behave quite similarly to JHESS algorithm. The main drawback of all these algorithms (JHESS, JHMSH, JHMSH2) is that they may encounter fatal breakdowns or may suffer from a severe form of near-breakdowns, causing a brutal stop of the computations, the algorithm breaks down, or leading to a serious numerical instability. This phenomenon has no equivalent in the Euclidean case. We sketch out a very efficient strategy for curing fatal breakdowns and treating near breakdowns. Thus, the new algorithms incorporating this modification will be referred to as MJHESS, MJHSH, JHM²SH and JHM²SH2. These strategies were then incorporated into the implicit version of the SR algorithm to overcome the difficulties encountered by the fatal breakdown or near-breakdown. We recall that without these strategies, the SR algorithms breaks. Finally ans in another framework of structured matrices, we presented a robust algorithm via FFT and a Hankel matrix, based on computing approximate greatest common divisors (GCD) of polynomials, for solving the problem pf blind image deconvolution. Specifically, we designe a specialized algorithm for computing the GCD of bivariate polynomials. The new algorithm is based on the fast GCD algorithm for univariate polynomials , of quadratic complexity O(n²) flops. The complexitiy of our algorithm is O(n²log(n)) where the size of blurred images is n x n. The experimental results with synthetically burred images are included to illustrate the effectiveness of our approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Côté, Hugo. "Programmes de branchement catalytiques : algorithmes et applications". Thèse, 2018. http://hdl.handle.net/1866/22123.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía