Academic literature on the topic 'Modèles de calcul non standards'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Modèles de calcul non standards.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Modèles de calcul non standards":

1

Boughattas, Sedki. "L'arithmétique ouverte et ses modèles non-standards." Journal of Symbolic Logic 56, no. 2 (June 1991): 700–714. http://dx.doi.org/10.2307/2274712.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Souchon, Y., F. Trocherie, E. Fragnoud, and C. Lacombe. "Les modèles numériques des microhabitats des passons : application et nouveaux développements." Revue des sciences de l'eau 2, no. 4 (April 12, 2005): 807–30. http://dx.doi.org/10.7202/705056ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'estimation des stocks de poissons que peut abriter un secteur de cours d'eau non pollué nécessite le calcul de sa capacité d'accueil en terme d'espace et de nourriture. Le premier volet a donné lieu aux Etats-Unis à la mise en place de modèles de comportement de différentes espèces de poissons en fonction de variables physiques et de modèles hydrauliques décrivant l'évolution temporelle de ces variables. Les hypothèses sous-jacentes sont discutées. Une modification du calcul de la perte de charge linéaire est préconisée pour le modèle hydraulique dans le cas des rivières à truites, et l'utilisation de méthodes multivariées est proposée pour décrire avec une meilleure fiabilité les relations entre densités de poissons et variables physiques des cours d'eau. Quelques cas d'application illustrent l'intérêt de cette démarche pour répondre à des questions posées par les gestionnaires, tant en matière de prévision des impacts piscicoles des aménagements que d'optimisation des repeuplements.
3

Cléry, Isabelle, and Marc Pierrot-Deseilligny. "Une interface ergonomique de calcul de modèles 3D par photogrammétrie." Revue Française de Photogrammétrie et de Télédétection, no. 196 (April 15, 2014): 40–51. http://dx.doi.org/10.52638/rfpt.2011.36.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreux logiciels du commerce proposent de créer des modélisations en 3D d'objets ou de scènes à partir uniquement de photographies. Cependant les professionnels, notamment les archéologues et les architectes, ont un certain nombre de contraintes qui restreignent fortement le choix du logiciel, telles que des ressources financières limitées, des connaissances peu approfondies en photogrammétrie et en informatique, des impératifs qui limitent le temps d'acquisition et de traitement, et enfin des attentes précises en terme de qualité, de précision et de complétude de la modélisation. Le laboratoire MATIS a développé un ensemble d'outils libres, open source, qui permettent d'effectuer l'ensemble des étapes du traitement d'un chantier photogrammétrique et qui fournissent des modèles 3D très denses et précis grâce à la rigueur de l'approche photogrammétrique ; ils représentent donc une solution intéressante pour ces professionnels du point de vue algorithmique.Cependant ils ont été développés pour des applications de recherche et sont donc peu ergonomiques pour le public non photogrammètre et non informaticien. C'est pourquoi une interface graphique est en cours de développement afin de fournir un accès simplifié et unifié à ces outils, notamment aux architectes et aux archéologues. Grâce à l'interface, l'utilisateur peut manipuler les images d'un même chantier et contrôler chaque étape du traitement qui comprend : le calcul automatique de points homologues entre les images, l'estimation des poses de la caméra et le calcul des modèles 3D. Les résultats peuvent être convertis en cartes de profondeur ombrées ou en nuages denses de points 3D (au format standard ply), et peuvent être affichés directement par l'interface. Pour offrir la possibilité de traiter des chantiers suffisamment variés, tout en masquant la complexité du paramétrage, la démarche retenue est de présenter à l'utilisateur un accès par grande famille de prises de vue, par exemple : chantier convergent, relevé de façades, chantier aérien sub-vertical, modélisation d'intérieur. . . Une attention particulière est apportée à la qualité de la documentation et à la portabilité du produit sur les principaux types d'ordinateur grand public (Linux, Mac et Windows). Cette interface, bien que non finalisée, permet déjà d'effectuer l'intégralité du traitement de chantiers de type convergent et est disponible en ligne. Des utilisateurs issus des différentes communautés de professionnels ciblées (archéologie, architecture, géologie, photogrammétrie architecturale) l'ont déjà testée et l'interface est régulièrement mise à jour afin de l'adapter aux remarques et demandes de ces testeurs.
4

Carrive, Laurent. "De la réalité des modèles et des théories." Acta Europeana Systemica 4 (July 14, 2020): 89–98. http://dx.doi.org/10.14428/aes.v4i1.57283.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La réalité des modèles comme des théories fait aujourd’hui l'objet de nombreux débats. Pourtant, ce critère essentiel reste actuellement négligé du fait de l’expansion d'un certain constructivisme, qui admet implicitement une forme d’équivalence entre justesse des prédictions et réalité physique. Dans cet article, nous entendons par modèle physique, un système mathématico-logique prédictif, permettant de simuler le comportement d’un objet. Une théorie, plus générale qu’un modèle, désignera un objet cognitif qui prétend décrire et expliquer la nature et le comportement réel d’un phénomène. Nous considérons ensuite qu’un modèle est opérationnel lorsqu’il décrit précisément les processus physiques qui engendrent l’action. Tandis qu’un modèle sera dit nonopérationnel s'il met en oeuvre des évaluations qui ne peuvent être obtenues que rétrospectivement, par exemple par un calcul d’extremum. Enfin, nous qualifions un modèle de réel, s’il est opérationnel et si, de plus, ses variables et opérations sont prises strictement dans le domaine de réalité considéré (en référence aux poupées russes de Bitbol [9]). Une théorie est donc nécessairement un modèle réel, ou supposé tel.Il nous est apparu que les théories physiques sont la plupart du temps, organisées de manière hiérarchique, comportant à leur base des modèles réels surmontés de modèles non-réels. Les modèles réels permettent de découvrir de nouveaux phénomènes, par exemple la découverte de la circulation aérodynamique autour d’une aile d’avion par Nikolaï Joukovski. Par contre, la non-réalité de certains modèles peut conduire à des raisonnements erronés, en suggérant une fausse réalité. Toutefois, les modèles non-réels peuvent être très utiles lorsque les objets manipulés sont inobservables, car trop petits ou imaginaires. La qualité de leurs prédictions peut être aussi bonne que celle fournie par les modèles réels. C'est le cas de la mécanique quantique, développée au début du XXème siècle, qui a montré sa très grande utilité pratique et la surprenante exactitude de ses prédictions. Lors de son développement, les niveaux de réalité concernés étaient alors complètement inobservables. Ils ont donc été imaginés. L’évolution actuelle de la technologie, commence à permettre une certaine visibilité des atomes et des couches électroniques, ce qui pourrait profondément remettre en cause ce modèle en exhibant sa non-réalité.
5

DUCROCQ, V. "Les techniques d’evaluation génétique des bovins laitiers." INRAE Productions Animales 3, no. 1 (February 3, 1990): 3–16. http://dx.doi.org/10.20870/productions-animales.1990.3.1.4355.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes statistiques utilisées au cours des 50 dernières années pour l’évaluation génétique des taureaux et des vaches laitières sont présentées en insistant sur les raisons ayant motivé leur développement, puis leur abandon. La théorie classique des index de sélection appliquée aux données de base telles que les écarts des performances des vaches à leurs contemporaines d’étable est devenue obsolète car la correction des effets du milieu était imparfaite et le progrès génétique sous-jacent n’était pas pris en compte. La meilleure prédiction linéaire non biaisée (BLUP) permet une évaluation simultanée des effets génétiques et du milieu. Appliquée initialement à des modèles simples pour l’estimation des taureaux (modèles père ou père-grand-père), elle est maintenant de plus en plus utilisée avec un « modèle animal », qui permet l’évaluation conjointe des mâles et des femelles. Certaines propriétés intéressantes sont alors respectées. D’autres aspects, tels que la modélisation des performances, la prise en compte de plusieurs lactations et les difficultés de calcul des index sont également abordés.
6

Chanier, Paul. "Le sophisme des n dimensions et son dépistage dans l’analyse économique." Économie appliquée 46, no. 2 (1993): 147–78. http://dx.doi.org/10.3406/ecoap.1993.2332.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un espace non homogène ou à plus de trois dimensions, les notions d’angle et de distance euclidienne ne sont pas interprétables. On montre comment cette idée a été occultée par diverses habitudes mathématiques et philosophiques, et en particulier comment le sens du théorème de Frobenius-Peirce, qui établit cette impossibilité, n’a pas été généralement compris. Les quaternions sous forme matricielle, dont le fonctionnement est analysé à l’aide de progrès récents, sont la forme la plus complète du calcul vectoriel et révèlent la nature sophistique de certaines généralisations. Il est montré que certains modèles de dynamique économique dépendent d’une distance euclidienne purement arbitraire. Plus généralement les fausses analogies avec l’espace perceptif homogène sont étudiées.
7

Desmorat, Rodrigue. "Positivité de la dissipation intrinsèque d'une classe de modèles d'endommagement anisotropes non standards." Comptes Rendus Mécanique 334, no. 10 (October 2006): 587–92. http://dx.doi.org/10.1016/j.crme.2006.07.015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Setton, Robin. "Is Non-Intra-IE Interpretation Different?" Meta 38, no. 2 (September 30, 2002): 238–56. http://dx.doi.org/10.7202/004115ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé La théorie européenne de la traduction et de l'interprétation, nettement influencée par l'École de Paris, affirme l'universalité de certains principes comme le découpage du texte en unités de traduction et la traduisibilité de tout énoncé au-delà des langues et des cultures. Or, le cloisonnement entre les civilisations occidentale et orientale, les spécificités morphologiques et structurales des langues d'Orient et la non-homogénéité de leurs standards incitent à une remise en question de ces principes avec pour conséquence qu'il faut, dans la formation des interprètes, insister davantage sur l'acquisition des connaissances culturelles et la maîtrise des modèles de discours.
9

Marsault, Xavier, and Hong Minh-Chau Nguyen. "Les GANs : stimulateurs de créativité en phase d’idéation." SHS Web of Conferences 147 (2022): 06003. http://dx.doi.org/10.1051/shsconf/202214706003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Présentée dans le passé comme une approche visant à imiter l’intelligence biologique, l’adaptation et l’évolution dans la résolution de problèmes, l’intelligence artificielle (IA) mobilise massivement la communauté scientifique, et se redéfinit constamment dans ses ambitions, voire son essence même, surpassant les précédents modèles analytiques, prédictifs et génératifs en parallèle avec une constante et rapide évolution des équipements de calcul dédiés. Si l’IA excelle depuis quelques années dans la résolution de problèmes touchant de nombreux champs de l’activité humaine, ses applications aux domaines architectural et urbain n’en sont qu’aux balbutiements. Mais depuis 2017, l’IA générative est convoquée pour répondre à des objectifs non quantifiables ou difficilement mesurables (comme l’esthétique) et stimuler la créativité des concepteurs, et ses algorithmes, en particulier les GANs, commencent à être mis à profit pour l’aide à la conception en phase d’idéation architecturale.
10

Paquier, A., J. M. Tanguy, S. Haider, and B. Zhang. "Estimation des niveaux d'inondation pour une crue éclair en milieu urbain : comparaison de deux modèles hydrodynamiques sur la crue de Nîmes d'octobre 1988." Revue des sciences de l'eau 16, no. 1 (April 12, 2005): 79–102. http://dx.doi.org/10.7202/705499ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Lors des crues extrêmes en ville, une forte part des écoulements reste en surface. Pour simuler ces inondations, deux modèles sont présentés : le logiciel REM2 U unidimensionnel a pour objectif de simuler la propagation des débits de crue dans l'ensemble d'un réseau de rues alors que le logiciel Rubar 20 bidimensionnel vise à fournir plus d'information sur ces écoulements. Des calculs avec ces deux logiciels ont été menés sur la crue d'octobre 1988 dans un quartier de Nîmes. Lors de cet événement, les hauteurs d'eau maximales ont dépassé deux mètres en certains points et les vitesses 2 m/s ce qui entraînait des passages en régime torrentiel. A partir des données rassemblées sur les sections en travers des rues, des maillages de calcul limités au réseau de rues ont été construits pour les deux logiciels afin de permettre un calcul détaillé. La comparaison des résultats avec les laisses de crue montre des situations très contrastées d'un point à un autre pour une hauteur d'eau maximale moyenne sur l'ensemble de la zone inondée correctement simulée. L'écart sur cette hauteur est, en moyenne, de 1 m ce qui provient des incertitudes sur les observations, sur la topographie et sur les conditions aux limites, des approximations lors de la modélisation et de particularités locales non décrites. Entre les deux logiciels, l'évolution des hauteurs et des vitesses est généralement très proche bien que, comme pour la comparaison avec les laisses de crue, des différences locales importantes sont observées.

Dissertations / Theses on the topic "Modèles de calcul non standards":

1

Emmanuel, Aurélien. "Courbes d'accumulations des machines à signaux." Electronic Thesis or Diss., Orléans, 2023. http://www.theses.fr/2023ORLE1079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans l'étude d'un modèle de calcul géométrique : les machines à signaux. Nous y montrons comment tracer des graphes de fonctions à l'aide d'arbres unaire-binaires. Dans le monde des automates cellulaires, il est souvent question de particules ou signaux : des structures périodiques dans le temps et l'espace, autrement dit des structures qui se déplacent à vitesse constante. Lorsque plusieurs signaux se rencontrent, une collision a lieu, et les signaux entrant peuvent continuer, disparaître ou laisser place à d'autres signaux, en fonctions des règles de l'automate cellulaire. Les machines à signaux sont un modèle de calcul qui reprend ces signaux comme briques de base. Visualisées dans un diagramme espace-temps, l'espace en axe horizontal et le temps vertical s'écoulant vers le haut, ce modèle revient à calculer par le dessin de segments et demi-droites colorés. On trace, de bas en haut, des segments jusqu'à ce que deux ou plus s'intersectent, et l'on démarre alors de nouveau segments, en fonctions de règles prédéfinies. Par rapport aux automates cellulaires, les machines à signaux permettent l'émergence d'un nouveau phénomène : la densité des signaux peut être arbitrairement grande et même infinie, y compris en partant d'une configuration initiale de densité finie. De tels points du diagramme espace-temps, des points au voisinage desquels se trouvent une infinité de signaux, sont appelés points d'accumulation. Ce nouveau phénomène permet de définir de nouveau problèmes, géométriquement. Par exemple : quels sont les points d'accumulations isolés possibles en utilisant des positions initiales et des vitesses rationnelles ? Peut-on faire en sorte que l'ensemble des points d'accumulation forment un segment ? un ensemble de Cantor ? Dans cette thèse, nous nous attelons à caractériser des graphes de fonctions qu'il est possible de dessiner par un ensemble d'accumulation. Elle s'inscrit dans l'exploration de la puissance de calcul des machines à signaux, qui s'inscrit plus généralement dans l'étude de la puissance de calcul de modèles non standards. Nous y montrons que les fonctions d'un segment compact de la droite réelle dont le graphe coïncide avec l'ensemble d'accumulation d'une machine à signaux sont exactement les fonctions continues. Nous montrons plus généralement comment les machines à signaux peuvent dessiner n'importe quel fonction semi-continue inférieurement. Nous étudions aussi la question sous des contraintes de calculabilité, avec le résultat suivant : si un diagramme de machine à signaux calculable coïncide avec le graphe d'un fonction suffisamment lipschitzienne, cette fonction est limite calculable d'une suite croissante de fonctions en escalier rationnelles
This thesis studies a geometric computational model: signal machines. We show how to draw function graphs using-binary trees. In the world of cellular automata, we often consider particles or signals: structures that are periodic in time and space, that is, structures that move at constant speed. When several signals meet, a collision occurs, and the incoming signals can continue, disappear, or give rise to new signals, depending on the rules of the cellular automaton. Signal-machines are a computational model that takes these signals as basic building blocks. Visualized in a space-time diagram, with space on the horizontal axis and time running upwards, this model consists of calculating by drawing segments and half-lines. We draw segments upwards until two or more intersect, and then start new segments, according to predefined rules. Compared to cellular automata, signal-machines allow for the emergence of a new phenomenon: the density of signals can be arbitrarily large, even infinite, even when starting from a finite initial configuration. Such points in the space-time diagram, whose neighborhoods contain an infinity of signals, are called accumulation points.This new phenomenon allows us to define new problems geometrically. For example, what are the isolated accumulation points that can be achieved using rational initial positions and rational velocities? Can we make so the set of accumulation points is a segment? A Cantor set? In this thesis, we tackle the problem of characterizing the function graphs that can be drawn using an accumulation set. This work fits into the exploration of the computational power of signal-machines, which in turn fits into the study of the computational power of non-standard models. We show that the functions from a compact segment of the line of Real numbers whose graph coincides with the accumulation set of a signal machine are exactly the continuous functions. More generally, we show how signal machines can draw any lower semicontinuous function. We also study the question under computational constraints, with the following result: if a computable signal-machine diagram coincides with the graph of a Lipschitz-function of sufficiently small Lipschitz coefficient, then that function is the limit of a growing and computable sequence of rational step functions
2

Pégny, Maël. "Sur les limites empiriques du calcul : calculabilité, complexité et physique." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010673/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant ces dernières décennies, la communauté informatique a montré un intérêt grandissant pour les modèles de calcul non-standard, inspirés par des phénomènes physiques, biologiques ou chimiques. Les propriétés exactes de ces modèles ont parfois été l'objet de controverses: que calculent-ils? Et à quelle vitesse? Les enjeux de ces questions sont renforcés par la possibilité que certains de ces modèles pourraient transgresser les limites acceptées du calcul, en violant soit la thèse de Church-Turing soit la thèse de Church-Turing étendue. La possibilité de réaliser physiquement ces modèles a notamment été au coeur des débats. Ainsi, des considérations empiriques semblent introduites dans les fondements même de la calculabilité et de la complexité computationnelle, deux théories qui auraient été précédemment considérées comme des parties purement a priori de la logique et de l'informatique. Par conséquent, ce travail est consacré à la question suivante : les limites du calcul reposent-elles sur des fondements empiriques? Et si oui, quels sont-ils? Pour ce faire, nous examinons tout d'abord la signification précise des limites du calcul, et articulons une conception épistémique du calcul, permettant la comparaison des modèles les plus variés. Nous répondrons à la première question par l'affirmative, grâce à un examen détaillé des débats entourant la faisabilité des modèles non-standard. Enfin, nous montrerons les incertitudes entourant la deuxième question dans l'état actuel de la recherche, en montrant les difficultés de la traduction des concepts computationnels en limites physiques
Recent years have seen a surge in the interest for non-standard computational models, inspired by physical, biological or chemical phenomena. The exact properties of some of these models have been a topic of somewhat heated discussion: what do they compute? And how fast do they compute? The stakes of these questions were heightened by the claim that these models would violate the accepted limits of computation, by violating the Church-Turing Thesis or the Extended Church-Turing Thesis. To answer these questions, the physical realizability of some of those models - or lack thereof - has often been put at the center of the argument. It thus seems that empirical considerations have been introduced into the very foundations of computability and computational complexity theory, both subjects that would have been previously considered purely a priori parts of logic and computer science. Consequently, this dissertation is dedicated to the following question: do computability and computational complexity theory rest on empirical foundations? If yes, what are these foundations? We will first examine the precise meaning of those limits of computation, and articulate a philosophical conception of computation able to make sense of this variety of models. We then answer the first question by the affirmative, through a careful examination of current debates around non-standard models. We show the various difficulties surrounding the second question, and study how they stem from the complex translation of computational concepts into physical limitations
3

Bizouard, Vincent. "Calculs de précision dans un modèle supersymétrique non minimal." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAY075/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Malgré les nombreux succès du Modèle Standard de la physique des particules, plusieurs éléments montrent qu'il ne s'agit que d'une théorie effective à basse énergie. En effet, la masse des neutrinos et la matière noire ne sont pas expliqués dans ce modèle, qui ne prend pas en compte non plus la gravitation dont la version quantique n'a toujours pas été établie. De plus, les divergences quadratiques des corrections à la masse du boson de Higgs dans ce modèle pose un problème de naturalité. Tous ces problèmes indiquent la nécessité de trouver une nouvelle physique, qui doit être décrite par une extension du Modèle Standard. Une des possibilités est d'ajouter une nouvelle symétrie de l'espace-temps, la Supersymétrie, reliant les bosons et le fermions. Dans son extension miminale, la Supersymétrie permet déjà de résoudre le problème de la matière noire en proposant un candidat naturel, le neutralino, et de supprimer les dangereuses corrections quadratiques à la masse du boson de Higgs.Dans cette thèse, les travaux se sont concentrés sur une extension supersymétrique non minimale du Modèle Standard, le NMSSM. Afin de confronter la théorie aux expériences, il est nécessaire de calculer précisément les différentes observables. Ces calculs étant complexes, il est naturel de les automatiser, ce qui a été réalisé à l'aide du code SloopS. Avec ce code, nous avons pu dans un premier temps nous intéresser à la désintégration du boson de Higgs en un photon et un boson Z. Ce mode de désintégration a la particularité d'être généré directement à une boucle, ce qui le rend sensible à la présence de nouvelles particules. Il a commencé à être mesuré lors du Run 1 du LHC et les données vont continuer à s'accumuler avec le Run actuel (Run 2). La possibilité d'une déviation du signal mesuré avec celui prédit par le modèle Standard, requiert donc une analyse théorique préliminaire, que nous avons effectué dans le cadre du NMSSM. Nous nous sommes ensuite intéressé aux corrections radiatives pour des processus plus généraux.Il a d'abord fallu réaliser et implémenter la renormalisation dans SloopS afin de réguler les divergences apparaissant dans ces calculs à une boucle. Puis nous avons pu utiliser le modèle renormalisé pour calculer les corrections radiatives aux masses et largeurs de désintégration des différentes particules supersymétriques et des bosons de Higgs, en comparant les résultats obtenus dans différents schémas de renormalisation
Although the Standard Model has been very successful so far, it presents several limitations showing that it is only an effective low energy theory. For example, the neutrino masses or dark matter are not predicted in this model. Gravity is also not taken into account and we expect that it plays a quantum role at energies around the Planck mass. Moreover, radiative corrections to the Higgs boson mass suffer from quadratic divergences. All these problems underline the fact that new physics should appear, and this has to be described by an extension of the Standard Model. One well-motivated possibility is to add a new space-time symetry, called Supersymmetry, which link bosons and fermions. In its minimal extension, Supersymmetry can already solve the dark matter paradox with a natural candidate, the neutralino, and provide a cancellation of the dangerous quadratic corrections to the Higgs boson mass.In this thesis, we focussed on the Next-to-Minimal SuperSymmetric extension of the Standard Model, the NMSSM. To compare theoretical predictions with experiments, physical observables must be computed precisely. Since these calculations are long and complex, automatisation is desirable. This was done by developping SloopS, a program to compute one-loop decay width and cross-section at one-loop order in Supersymmetry. With this code, we first analysed the decay of the Higgs boson in a photon and a Z boson. This decay mode is induced at the quantum level and thus is an interesting probe of new physics. Its measurement has been started during Run 1 of the LHC and is continued now in Run 2. The possibility of deviation between the measured signal strength and the one predicted by the Standard Model motivates a careful theoretical analysis in beyond Standard Models which we realised within the NMSSM. Our goal was to compute radiative corrections for any process in this model. To cancel the ultraviolet divergences appearing in higher order computations, we had to carry out and implement the renormalisation of the NMSSM in SloopS. Finally, it was possible to use the renormalised model to compute radiatives corrections to masses and decay widths of Higgs bosons and supersymmetric particles in the NMSSM and to compare the results between different renormalisation schemes
4

Boughattas, Sedki. "L'Arithmétique ouverte et ses modèles non-standards." Paris 7, 1987. http://www.theses.fr/1987PA077044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On montre que, dans le langage forme par les symboles d'addition, de multiplication, de successeur, de relation d'ordre et la constante zéro, la théorie de l'induction pour les formules ouvertes est non-finiment axiomatisable. On apporte la réponse à des questions relatives aux sous-systèmes de cette arithmétique, posées par Shepherdson et par Macintyre
5

Ren, Chengfang. "Caractérisation des performances minimales d'estimation pour des modèles d'observations non-standards." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112167/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte de l'estimation paramétrique, les performances d'un estimateur peuvent être caractérisées, entre autre, par son erreur quadratique moyenne (EQM) et sa résolution limite. La première quantifie la précision des valeurs estimées et la seconde définit la capacité de l'estimateur à séparer plusieurs paramètres. Cette thèse s'intéresse d'abord à la prédiction de l'EQM "optimale" à l'aide des bornes inférieures pour des problèmes d'estimation simultanée de paramètres aléatoires et non-aléatoires (estimation hybride), puis à l'extension des bornes de Cramér-Rao pour des modèles d'observation moins standards. Enfin, la caractérisation des estimateurs en termes de résolution limite est également étudiée. Ce manuscrit est donc divisé en trois parties :Premièrement, nous complétons les résultats de littérature sur les bornes hybrides en utilisant deux bornes bayésiennes : la borne de Weiss-Weinstein et une forme particulière de la famille de bornes de Ziv-Zakaï. Nous montrons que ces bornes "étendues" sont plus précises pour la prédiction de l'EQM optimale par rapport à celles existantes dans la littérature.Deuxièmement, nous proposons des bornes de type Cramér-Rao pour des contextes d'estimation moins usuels, c'est-à-dire : (i) Lorsque les paramètres non-aléatoires sont soumis à des contraintes d'égalité linéaires ou non-linéaires (estimation sous contraintes). (ii) Pour des problèmes de filtrage à temps discret où l'évolution des états (paramètres) est régit par une chaîne de Markov. (iii) Lorsque la loi des observations est différente de la distribution réelle des données.Enfin, nous étudions la résolution et la précision des estimateurs en proposant un critère basé directement sur la distribution des estimées. Cette approche est une extension des travaux de Oh et Kashyap et de Clark pour des problèmes d'estimation de paramètres multidimensionnels
In the parametric estimation context, estimators performances can be characterized, inter alia, by the mean square error and the resolution limit. The first quantities the accuracy of estimated values and the second defines the ability of the estimator to allow a correct resolvability. This thesis deals first with the prediction the "optimal" MSE by using lower bounds in the hybrid estimation context (i.e. when the parameter vector contains both random and non-random parameters), second with the extension of Cramér-Rao bounds for non-standard estimation problems and finally to the characterization of estimators resolution. This manuscript is then divided into three parts :First, we fill some lacks of hybrid lower bound on the MSE by using two existing Bayesian lower bounds: the Weiss-Weinstein bound and a particular form of Ziv-Zakai family lower bounds. We show that these extended lower bounds are tighter than the existing hybrid lower bounds in order to predict the optimal MSE.Second, we extend Cramer-Rao lower bounds for uncommon estimation contexts. Precisely: (i) Where the non-random parameters are subject to equality constraints (linear or nonlinear). (ii) For discrete-time filtering problems when the evolution of states are defined by a Markov chain. (iii) When the observation model differs to the real data distribution.Finally, we study the resolution of the estimators when their probability distributions are known. This approach is an extension of the work of Oh and Kashyap and the work of Clark to multi-dimensional parameters estimation problems
6

Kechid, Mounir. "La programmation dynamique non-serial dans les modèles de calcul parallèle BSP/CGM." Amiens, 2009. http://www.theses.fr/2009AMIE0110.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous assistons cette décennie à une tendance (migration) du hardware parallèle vers les systèmes multiprocesseurs à gros-grain. Cependant, la majorité du logiciel parallèle traditionnel est conçue pour des systèmes grain-fin et pour des machines à mémoire partagée. L'un des principaux défis actuels des chercheurs en conception d'algorithmes parallèles est de réduire cette incompatibilité dite « écart logiciel-matériel ». Un grand intérêt est ainsi porté à la conception d'algorithmes parallèles efficaces pour les multiprocesseurs gros-grain. C'est dans ce cadre que s'inscrit cette thèse. Nous utilisons le modèle de calcul parallèle BSP/CGM (Bulk synchronous parallel Coarse Grained Multicomputers) pour concevoir des solutions pour des problèmes faisant appel à la technique de programmation dynamique. Nous nous intéressons à un échantillon typique de la programmation dynamique du type polyadique non-serial qui est caractérisée par une très forte dépendance de calculs. Il s'agit d'une importante classe de problèmes largement utilisés dans les applications à haute performance (tel que : le problème d'ordonnancement de produit de chaîne de matrices : OPCM, le problème de l'arbre binaire de recherche optimale : ABRO, le problème de triangulation de polygones convexe : TPC. . . ). Nous présentons tout d'abord une étude détaillée de l'outil de conception, i. E. Le modèle BSP/CGM, ainsi qu'une proposition de raffinement du modèle de coût BSP en vue d'améliorer son exactitude de prédiction. Nous présentons ensuite une solution BSP/CGM générique pour la classe de problèmes précitée. Enfin, après une étude des contraintes de l'accélération de cette solution générique dans le modèle BSP/CGM, pour les problèmes OPCM et ABRO, deux algorithmes BSP/CGM accélérés sont proposés
We attend this decade a trend (migration) of the parallel hardware towards coarse-grain multiprocessor systems. However, the majority of the traditional parallel software is designed for fine-grain system and for shared memory machines. One of the main current challenges of the researchers in design of parallel algorithms is to reduce this incompatibility said “software-hardware gap”. Big interest is so focused on the design of efficient parallel algorithms for coarse-grain multi-processors systems. It's in this context that this thesis contributes. We use the BSP/CGM parallel computing model (Bulk synchronous parallel Coarse Grained Multicomputer) to design solutions for problems using dynamic programming approach. We are interested in a typical sample of the dynamic programming polyadic non-serial which is characterized by a very strong dependence of calculations. It is about an important class of problems widely used in the high-performance applications (MCOP: the matrix chain ordering problem, OBST: the optimal binary search tree problem, CTP: the convex polygons triangulation). We firstly present a detailed study of the design tools, i. E. BSP/CGM model, as well as a proposition of refinement of the BSP cost model to improve its prediction accuracy. We present then a generic BSP/CGM solution for the aforesaid problems class. At the end, after a study of the constraints of the acceleration of this generic solution in BSP/CGM model for the problems MCOP and OBST, two accelerated BSP/CGM algorithms are proposed
7

Pétrino, Paule. "Mise au point d'une méthode prédictive de calcul des viscosités des mélanges liquides non ioniques." Aix-Marseille 3, 1991. http://www.theses.fr/1991AIX3A004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Daouia, Abdelaati. "Analyse non-paramétrique des frontières de production et des mesures d'efficacité à l'aide de quantiles conditionnels non-standards." Toulouse 1, 2003. http://www.theses.fr/2003TOU10049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux réalisés dans cette thèse mettent en lumière le rôle central que jouent les quantiles de la loi conditionnelle non-standard dans l'analyse de frontière et d'efficacité. Le chapitre 1 introduit la problématique et place le problème de l'estimation du support d'une loi multivariée dans le contexte d'analyse d'efficacité et met en perspective l'apport de la thèse
The present thesis is a part of the literature of nonparametric frontier and efficiency estimation in that we instigate this problem. Chapter 1 introduces a mathematical formulation of the problem of efficiency measurement showing its connection with the problem of estimating the support of a multivariate distribution, and summarizes the contributions of this dissertation
9

Cois, Olivier. "Systèmes linéaires non entiers et identification par modèle non entier : application en thermique." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12534.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le thème général des travaux qui font l'objet de ce mémoire concerne la représentation et l'identification de système par modèle non entier. Le premier chapitre commence par rappeler les définitions et principales propriétés des opérateurs différentiels non entiers. Le deuxième chapitre propose une représentation continue dans un espace d'état généralisé d'un système linéaire non entier complexe, scalaire ou multivariable. Un théorème de stabilité est établi. Le troisième chapitre traite de l'application de l'opérateur de dérivation non entière à la modélisation de phénomènes de diffusion, le champ applicatif retenu étant celui de la thermique. L'étude du transfert de chaleur dans six milieux semi-infinis et finis, ainsi que la détermination d'approximations sous la forme de transmittances entières et non entières constitue la contribution principale de ce chapitre. Le quatrième chapitre est consacré à l'identification par modèle non entier. Portant sur une équation différentielle non entière, deux types de méthodes d'estimation paramétriques sont présentés : les méthodes à erreur d'équation et les méthodes à erreur de sortie. Le dernier chapitre propose une application de l'identification par modèle non entier à la résolution d'un problème inverse en thermique. L'exemple d'illustration retenu consiste en l'estimation des conditions thermiques de coupe en usinage par tournage
This thesis deals with system representation and identification by fractional models. Chapter 1 recalls the definitions and main properties of the fractional operators. Chapter 2 proposes the study of a continuous MIMO complex-fractional system through a generalized state space representation. A stability theorem is established from the output analytical expression. Chapter 3 deals with the modeling of diffusive processes using fractional differentiation operators. The heat transfer trough 6 different finite and semi-infinite media is studied. Approximations using integer or fractional transfer functions are then established and compared. Chapter 4 is devoted to system identification by fractional model. Equation error methods as well as output error methods are developed. Finally, chapter 5 gives an application of system identification to the solving of a thermal inverse problem. An example, consisting of the estimation of the thermal cut conditions, is given
10

BERGA, ABDELMAJID. "Calcul elastoplastique des sols a lois non associees par elements finis base sur l'approche des materiaux standards implicites." Compiègne, 1993. http://www.theses.fr/1993COMP595S.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'experience montre que le sol a un comportement non-standard. Cependant, les theoremes de l'analyse limite ne sont pas applicables sur un tel materiau demuni de la loi de normalite. La methode du materiau standard implicite permet de retrouver pour le comportement non-standard, la loi de normalite mais sous forme implicite. Ceci permet, notamment, de generaliser les theoremes de l'analyse limite au materiau non-standard. Une ecriture adequate de la loi constitutive incrementale permet de proposer un nouvel algorithme base sur un operateur symetrique et defini-positif a l'inverse de la matrice tangente conventionnelle quelconque. D'ou un meilleur conditionnement du systeme et un gain en temps de calcul. Ces developpements sont integres dans un environnement element fini d'architecture moderne et convivial en terme d'interactivite, de strategie de pilotage et de controle pour le calcul elastoplastique des massifs de sols. Les applications numeriques traites montrent la sensibilite de la charge limite au caractere non associatif de la loi

Book chapters on the topic "Modèles de calcul non standards":

1

BESSON, Jacques. "Méthodes numériques pour la rupture ductile." In Modélisation numérique en mécanique fortement non linéaire, 149–88. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9081.ch4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre présente les principaux modèles permettant de décrire la rupture ductile des métaux. Il présente les principaux problèmes de mise en œuvre de ces modèles dans les codes de calcul par éléments finis. L’origine de ces problèmes est liée au caractère fortement adoucissant des modèles employés. Certaines des méthodes de régularisation permettant de les résoudre sont présentées.

To the bibliography