Littérature scientifique sur le sujet « Précision de calcul »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Précision de calcul ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Précision de calcul"

1

Van-Wierts, Stéfanie, Pascal Bernatchez et Christian Larouche. « Suivi topographique côtier au moyen d’un système LiDAR mobile terrestre : exemple d’une recharge sédimentaire de plage ». GEOMATICA 71, no 4 (décembre 2017) : 194–212. http://dx.doi.org/10.5623/cig2017-402.

Texte intégral
Résumé :
L’évolution côtière est complexe, notamment par la migration de la ligne de rivage et l’apparition successive de zones d’érosion ou d’accumulation. Les suivis quantitatifs des systèmes côtiers sont largement utilisés afin de comprendre leurs évolutions temporelle et spatiale. Plusieurs méthodes d’acquisition topographiques ont été utilisées (GNSS RTK, LiDAR aéroporté et LiDAR terrestre statique ou mobile) où chaque méthode présente des avantages et des inconvénients lors de suivis d’environnements côtiers. L’objectif de cet article est de quantifier la précision d’un système LiDAR mobile (SLM) terrestre et d’évaluer s’il peut répondre aux principaux défis des levés topographiques en milieu côtier qui consistent à réaliser des levés à une haute résolution temporelle, à moindre coût, tout en assurant une bonne précision altimétrique et une bonne résolution spatiale. Les résultats montrent que la résolution spatiale est centimétrique et que la précision altimétrique est de 0,039 m (RMS calculé sur 124 points de contrôle). La haute précision altimétrique et la haute résolution spatiale permettent de maximiser la précision des calculs de volume sédimentaire et ainsi diminuer les coûts associés à l’erreur de calcul, notamment lors de projets de recharge sédimentaire de plage. Cela permet aussi d’assurer le positionnement exact de limites marégraphiques et géomorphologiques. En comparaison à des profils topographiques obtenus par méthodes clas siques, la forte densité des nuages de points observés avec un SLM permet de cartographier des formes morphologiques de faible amplitude diminuant ainsi l’erreur due à l’interpolation.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Hassnaoui, Yonas. « Les codes de calcul de haute précision : quand le nucléaire met au pot commun ». Revue Générale Nucléaire, no 6 (novembre 2020) : 38–41. http://dx.doi.org/10.1051/rgn/20206038.

Texte intégral
Résumé :
L’exploitation des centrales nucléaires a toujours nécessité l’utilisation de codes de calcul informatique pour simuler les phénomènes physiques complexes. Ces codes de calcul de haute précision ne se cantonnent pas qu’au nucléaire, loin de là : tenue mécanique des structures, thermo-hydraulique, chimie séparative, etc. Leurs champs d’application sont nombreux et variés.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Duget, Anne, Thierry Roux, Pierre Noire et Olivier Lapierre. « Hexapodes de positionnement de précision ». Photoniques, no 115 (8 août 2022) : 51–56. http://dx.doi.org/10.1051/photon/202211257.

Texte intégral
Résumé :
L’hexapode est un robot parallèle permettant la mise en position d’objets suivant les six degrés de liberté (trois translations Tx, Ty, Tz et trois rotations Rx, Ry, Rz). Au milieu du xxe siècle, les premiers hexapodes ont servi à tester des pneus ou comme simulateurs de vol. Dans les années 1990, grâce à l’évolution des composants électroniques et à l’augmentation des capacités de calcul, l’arrivée de contrôleurs abordables et performants a permis leur essor. Nous verrons dans cet article comment un hexapode est constitué et étudierons les critères de sélection les plus pertinents avant de décrire quelques exemples d’applications.
Styles APA, Harvard, Vancouver, ISO, etc.
4

POMAR, C., F. DUBEAU et J. VAN MILGEN. « La détermination des besoins nutritionnels, la formulation multicritère et l’ajustement progressif des apports de nutriments aux besoins des porcs ». INRAE Productions Animales 22, no 1 (14 février 2009) : 49–54. http://dx.doi.org/10.20870/productions-animales.2009.22.1.3333.

Texte intégral
Résumé :
Dans un contexte dans lequel le coût élevé des matières premières et l’utilisation de sources non renouvelables de phosphates sont des enjeux majeurs pour les productions animales, l’alimentation de précision est proposée comme une démarche essentielle à l’accroissement de l’efficacité d’utilisation de l’azote et du phosphore alimentaire, et par conséquent, une réduction de leur excrétion. Une alimentation de précision requiert de bien caractériser le potentiel nutritif des aliments, de déterminer avec précision les besoins nutritionnels des animaux, de prédire la réponse animale aux apports nutritionnels, de formuler d’aliments avec des contraintes environnementales, et d’ajuster progressivement les apports aux besoins décroissants des animaux. La mise en place d’une telle stratégie d’alimentation demande cependant d’accroître nos connaissances et d’améliorer nos méthodes de calcul afin de s’assurer que les formules alimentaires proposées soient celles qui optimiseront nos systèmes de production tant d’un point de vue animal, économique qu’environnemental.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Hireche, Omar, Miloud Abidat, Leila Merahi et Abbes Azzi. « Etude de l’Ecoulement Tridimensionnel dans un Rotor d’une Turbine Semi-axiale ». Journal of Renewable Energies 2, no 1 (30 juin 1999) : 51–60. http://dx.doi.org/10.54966/jreen.v2i1.929.

Texte intégral
Résumé :
Cet article fait le point d’une étude pour la simulation numérique d’un écoulement tridimensionnel dans le rotor d’une turbine semi-axiale par la résolution numérique des équations d’Euler (en fluide parfait) exprimées en coordonnées cylindriques. La méthode de calcul qui se caractérise par l’utilisation d’une technique de résolution par stationnarisation associée à un schéma explicite à viscosité corrigée et une approche par volumes finis, présente de bonnes propriétés de convergence et de précision.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Guiñon, J. L., et M. Belanche. « Application de la résonance magnétique nucléaire du proton au dosage de l'éthanol dans les boissons alcoolisées ». OENO One 23, no 4 (31 décembre 1989) : 215. http://dx.doi.org/10.20870/oeno-one.1989.23.4.1245.

Texte intégral
Résumé :
<p style="text-align: justify;">Une équation pour le calcul de la teneur en éthanol basée sur les surfaces d'un spectre (H1-RMN) (Résonance magnétique du proton) est décrite. Les résultats obtenus par application de cette équation dans le vin et dans les boissons alcoolisées sont discutés. La méthode peut être retenue comme un dosage rapide de l'éthanol avec une précision de ± 6 p. 100 dans la gamme de 0 - 50 p. 100 vol. d'éthanol.</p>
Styles APA, Harvard, Vancouver, ISO, etc.
7

Knönagel et Müntener. « Urolithiasis und Ultraschalldiagnostik ». Praxis 91, no 14 (1 avril 2002) : 603–9. http://dx.doi.org/10.1024/0369-8394.91.14.603.

Texte intégral
Résumé :
L'urolithiase est une maladie très répandue en Europe et aux Etats-Unis. Grâce à sa grande précision, son application non invasive et sa disponibilité rapide et peu coûteuse, elle joue un rôle primordial pour le diagnostic et le suivi de l'urolithiase. La sonographie en Color-Mode est populaire, mais de moindre importance pour le patient atteint d'un calcul de l'uretère. En plus de la thérapie conservatrice, la lithotripsie extracorporelle (LEOC) est la méthode la plus adéquate. Après le traitement conservateur et interventionnel, il faut faire des contrôles sonographiques.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Bellel, Nadir, et Abla Chaker. « Etude et Optimisation du Réseau de Circulation du Fluide Caloporteur d’un Convertisseur Thermique ». Journal of Renewable Energies 7, no 2 (31 décembre 2004) : 85–94. http://dx.doi.org/10.54966/jreen.v7i2.869.

Texte intégral
Résumé :
La comparaison de deux géométries du réseau du caloporteur d'un capteur plan classique, nous oblige à mettre en évidence l'influence des pertes par convection sur le bilan optothermique de ce capteur. Partant des caractéristiques optiques et géométriques du capteur, des caractéristiques hydrauliques du fluide caloporteur, nous évaluons avec le maximum de précision les différentes composantes du bilan thermique en tenant compte notamment des gradients de température dans l'absorbeur. Ce travail a été mené avec de l'eau pressurisée comme fluide caloporteur. Notre étude théorique a été menée en utilisant un programme de calcul développé au laboratoire se basant sur la méthode des différences finies. Ce programme a été validé par les résultats expérimentaux dans les mêmes conditions météorologiques. Le convertisseur type serpentin a été choisi.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ben Hamouda, M., et M. Rekik. « contrôle de croissance des ovins allaitants en Tunisie. ii. Perte de précision sur le calcul des performances à âge type selon un protocole simplifié alternatif au protocole officiel ». Revue d’élevage et de médecine vétérinaire des pays tropicaux 65, no 1-2 (1 janvier 2012) : 41. http://dx.doi.org/10.19182/remvt.10131.

Texte intégral
Résumé :
Les performances à âge type P10 (poids à 10 jours), P30, P70, GMQ10/30 (gains moyens quotidiens entre 10 et 30 jours) et GMQ30/70 de 9 642 agneaux de race Barbarine ont été calculées selon le protocole conventionnel « F2 », ou un protocole simplifié, basé sur l’ajustement de la fonction von Bertalanffy à deux pesées à 42 jours d’intervalle, la première ayant lieu entre 2 et 60 jours après la naissance de l’agneau, et un poids à la naissance réel (PNR : contrôlé à la naissance), fixé, le même pour tous les agneaux (PNF = 3,4 kg) ou estimé en fonction de la première pesée (P) et l’intervalle entre la naissance et la première pesée (D) [PNE = 2,71009 + 0,208313 P – 0,00578 P (60 – D) + 0,00016 P (60 – D)2]. La perte de précision moyenne associée au calcul des poids à âge type a été élevée pour P10 (40 à 45 p. 100), modérée pour P30 (6 à 7 p. 100) et faible pour P70 (2 à 3 p. 100). La perte de précision associée au GMQ10/30 a été inférieure à celle déjà admise par le protocole conventionnel pour un intervalle entre la naissance et le premier contrôle compris entre 15 et 45 jours (15 p. 100 au maximum), et du même ordre entre 7 et 15 jours d’intervalle (20 p. 100 au maximum). Ces résultats ont permis de proposer la simplification du protocole F2 à deux ou trois pesées et un poids à la naissance. La première pesée devrait être retardée jusqu’à 46 jours après la naissance alors que l’intervalle entre contrôles successifs peut varier entre 30 et 40 jours, en fonction de la perte de précision pouvant être tolérée sur l’estimation des performances à âge type.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Nameche, T., et J. L. Vassel. « Bilan thermique sous climat tempéré des lagunes aérées et naturelles ». Revue des sciences de l'eau 12, no 1 (12 avril 2005) : 65–91. http://dx.doi.org/10.7202/705344ar.

Texte intégral
Résumé :
Un modèle décrivant la température d'équilibre des lagunes a été développé, tenant compte des différents flux de chaleur que celles-ci échangent avec l'air et le sol environnant. Six composantes différentes ont été inclues dans le calcul de ce bilan thermique: radiation solaire, évaporation, convection, rayonnement atmosphérique, rayonnement de la surface du plan d'eau, échange via les parois en contact avec le sol. Le modèle ainsi obtenu a été testé avec efficacité sur deux lagunes aérées et une lagune naturelle situées sous climat tempéré ; sa précision sur l'estimation des températures d'équilibre étant de l'ordre de 0.7 °C. Des simulations en continu ont également pu être effectuées au moyen d'une variante dynamique, tenant compte de l'inertie thermique qu'entraîne le volume des bassins. Quelle que soit la saison envisagée, la principale forme d'apport de chaleur est représentée par la radiation solaire tandis que la dissipation d'énergie se partage entre les flux d'évaporation et la balance des deux flux de rayonnement. Les bassins échangeraient en moyenne plus de 250 W/m2 ; le maximum de transfert de chaleur correspondant au printemps et à la période estivale. Enfin, l'analyse de sensibilité du modèle nous a permis de mettre en évidence la contribution de chacun des termes intervenant dans le calcul de ce bilan thermique et de révéler sa dépendance vis-à-vis principalement de la température d'entrée, du rayonnement solaire et de la température de l'air.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Précision de calcul"

1

Gratton, Serge. « Outils théoriques d'analyse du calcul à précision finie ». Toulouse, INPT, 1998. http://www.theses.fr/1998INPT015H.

Texte intégral
Résumé :
Nous présentons une théorie générale pour l'étude de la qualité du calcul en précision finie qui s'appuie sur la notion clé de calculabilité en précision finie. Une fois la calculabilité démontrée, se pose alors la question cruciale de la qualité des solutions obtenues par un calcul à précision finie. Pour y répondre, on utilise les notions d'erreur inverses et de conditionnement qui font partie de l'analyse inverse des erreurs introduite par Wilkinson. Nous appliquons cette théorie sur différents exemples issus de l'Algèbre Linéaire et de l'Optimisation. Nous présentons des formules explicites de conditionnement et d'erreur inverses sur divers problèmes d'Algèbre Linéaire. Nous proposons aussi une méthode systématique, fondée sur le produit de Kronecker, qui permet d'obtenir des formules explicites de conditionnements pour de nombreux problèmes. Nous étudions la notion de distance à la singularité dans le cas de polynômes d'une variable réelle ou complexe, ainsi que son lien avec le conditionnement. Nous montrons l'importance de cette notion pour la compréhension du comportement d'algorithmes de recherche de racines de polynômes en précision finie. Conditionnement et erreur inverse sont au cœur de l'étude approfondie que nous consacrons à deux méthodes numériques : les itérations successives pour la résolution de systèmes linéaires, et la méthode de Gauss-Newton pour la résolution de problèmes de moindres carrés non linéaires. Il apparaît que, même prouvé convergent en arithmétique exacte, un algorithme peut diverger lorsqu'il est employé en précision finie, et nous insistons sur la nécessité de disposer de condition de convergence robustes à la précision finie. De nombreux résultats développés dans cette thèse ont été obtenus dans le cadre d'une collaboration entre le CERFACS et le CNES centrée autour d'un problème de restitution d'orbite de satellite.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Brunin, Maxime. « Étude du compromis précision statistique-temps de calcul ». Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I001/document.

Texte intégral
Résumé :
Dans le contexte actuel, il est nécessaire de concevoir des algorithmes capables de traiter des données volumineuses en un minimum de temps de calcul. Par exemple, la programmation dynamique appliquée au problème de détection de ruptures ne permet pas de traiter rapidement des données ayant une taille d'échantillon supérieure à $10^{6}$. Les algorithmes itératifs fournissent une famille ordonnée d'estimateurs indexée par le nombre d'itérations. Dans cette thèse, nous avons étudié statistiquement cette famille d'estimateurs afin de sélectionner un estimateur ayant de bonnes performances statistiques et peu coûteux en temps de calcul. Pour cela, nous avons suivi l'approche utilisant les règles d'arrêt pour proposer un tel estimateur dans le cadre du problème de détection de ruptures dans la distribution et le problème de régression linéaire. Il est d'usage de faire un grand nombre d'itérations pour calculer un estimateur usuel. Une règle d'arrêt est l'itération à laquelle nous stoppons l'algorithme afin de limiter le phénomène de surapprentissage dont souffre ces estimateurs usuels. En stoppant l'algorithme plus tôt, les règles d'arrêt permettent aussi d'économiser du temps de calcul. Lorsque le budget de temps est limité, il se peut que nous n'ayons pas le temps d'itérer jusqu'à la règle d'arrêt. Dans ce contexte, nous avons étudié le choix optimal du nombre d'itérations et de la taille d'échantillon pour atteindre une précision statistique optimale. Des simulations ont mis en évidence un compromis entre le nombre d'itérations et la taille d'échantillon pour atteindre une précision statistique optimale à budget de temps limité
In the current context, we need to develop algorithms which are able to treat voluminous data with a short computation time. For instance, the dynamic programming applied to the change-point detection problem in the distribution can not treat quickly data with a sample size greater than $10^{6}$. The iterative algorithms provide an ordered family of estimators indexed by the number of iterations. In this thesis, we have studied statistically this family of estimators in oder to select one of them with good statistics performance and a low computation cost. To this end, we have followed the approach using the stopping rules to suggest an estimator within the framework of the change-point detection problem in the distribution and the linear regression problem. We use to do a lot of iterations to compute an usual estimator. A stopping rule is the iteration to which we stop the algorithm in oder to limit overfitting whose some usual estimators suffer from. By stopping the algorithm earlier, the stopping rules enable also to save computation time. Under time constraint, we may have no time to iterate until the stopping rule. In this context, we have studied the optimal choice of the number of iterations and the sample size to reach an optimal accuracy. Simulations highlight the trade-off between the number of iterations and the sample size in order to reach an optimal accuracy under time constraint
Styles APA, Harvard, Vancouver, ISO, etc.
3

Vaccon, Tristan. « Précision p-adique ». Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S032/document.

Texte intégral
Résumé :
Les nombres p-adiques sont un analogue des nombres réels plus proche de l’arithmétique. L’avènement ces dernières décennies de la géométrie arithmétique a engendré la création de nombreux algorithmes utilisant ces nombres. Ces derniers ne peuvent être de manière générale manipulés qu’à précision finie. Nous proposons une méthode, dite de précision différentielle, pour étudier ces problèmes de précision. Elle permet de se ramener à un problème au premier ordre. Nous nous intéressons aussi à la question de savoir quelles bases de Gröbner peuvent être calculées sur les p-adiques
P-Adic numbers are a field in arithmetic analoguous to the real numbers. The advent during the last few decades of arithmetic geometry has yielded many algorithms using those numbers. Such numbers can only by handled with finite precision. We design a method, that we call differential precision, to study the behaviour of the precision in a p-adic context. It reduces the study to a first-order problem. We also study the question of which Gröbner bases can be computed over a p-adic number field
Styles APA, Harvard, Vancouver, ISO, etc.
4

Braconnier, Thierry. « Sur le calcul des valeurs propres en précision finie ». Nancy 1, 1994. http://www.theses.fr/1994NAN10023.

Texte intégral
Résumé :
Nous avons développé un code de calcul de valeurs propres pour matrices non symétriques de grande taille utilisant la méthode d'Arnoldi-Tchebycheff. Une étude a été menée pour mettre en évidence le rôle du défaut de normalité sur l'instabilité spectrale et la stabilité numérique d'algorithmes de calcul de valeurs propres. Des outils, tels que les méthodes de perturbations associées à des méthodes statistiques, ont été expérimentés afin d'apporter des informations qualitatives sur le spectre étudié. Ces outils permettent de comprendre le comportement numérique du problème traite en précision finie, dans les cas ou le calcul direct échoue
Styles APA, Harvard, Vancouver, ISO, etc.
5

Pirus, Denise. « Imprécisions numériques : méthode d'estimation et de contrôle de la précision en C.A.O ». Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Pirus.Denise.SMZ9703.pdf.

Texte intégral
Résumé :
L'objectif de ce mémoire est d'apporter une solution aux problèmes numériques causes par l'emploi de l'arithmétique flottante. Le premier chapitre aborde les problèmes que l'arithmétique en virgule flottante provoque, en particulier dans le cadre de la C. A. O. Nous nous intéressons également aux différentes méthodes et outils existants pour résoudre ces problèmes. Le second chapitre est consacré à l'étude de la propagation des erreurs au cours des algorithmes, principalement l'algorithme correspondant à la détermination de l'intersection de deux droites. L'utilisation de l'analyse différentielle n'est pas suffisante pour obtenir une bonne approximation des erreurs affectant les résultats de calcul. Nous déterminons alors une estimation de la perte de précision au cours du calcul du point d'intersection de deux droites, en fonction de l'angle qu'elles forment, à l'aide de l'arithmétique d'intervalle. Le troisième chapitre présente la méthode cestac (contrôle stochastique des arrondis de calculs) vig 93 qui permet d'estimer le nombre de chiffres significatifs affectant le résultat d'un calcul numérique. Le quatrième chapitre traite du calcul formel, de l'arithmétique rationnelle et de l'utilisation du logiciel pari pour éviter les problèmes causes par l'utilisation de grands entiers. Le cinquième chapitre décrit notre méthodologie qui consiste à déterminer la précision d'un calcul a l'aide de la méthode cestac et qui, si la précision n'est pas suffisante, utilise l'arithmétique rationnelle. Nous modifions aussi les instructions conditionnelles, afin que les tests soient effectués en fonction de la précision des données
The object of this thesis is to bring a solution of numerical problems caused by the use of floating point arithmetic. The first chapter tackles the problems which are induced by the floating point arithmetic. One also develop the different existing methods and tools to solve these problems. The second chapter is devoted to the study of the spreader of errors during algorithms. Differential analysis is not adequate to obtain a good approximation of errors affecting the results of calculation. We next determine an estimation of the loss of precision during the calculation of the intersection point of two lines, according to the angle they draw up. The third chapter presents the method CESTAC (Stochastic checking of rounding of calculaation) [vig 93] which allows to estimate the number of significant digits affecting the result of a numerical calculation. The fourth chapter deals with computer algebra, as with the rational arithmetic and specially with the utilization of software Pari in order to avoid the problems caused by large integers. The fifth chapter describes our methodology which consists to determine the precision of a calculation with the assistance of the method CESTAC and which, if the precision isn't sufficient, uses the rational arithmetic. We also amend the conditional instructions, so that the tests be executed according to the precision of each data
Styles APA, Harvard, Vancouver, ISO, etc.
6

Nguyen, Hai-Nam. « Optimisation de la précision de calcul pour la réduction d'énergie des systèmes embarqués ». Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00705141.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le contexte de la forte augmentation du débit et de la puissance de calcul des systèmes de télécommunications. Cette augmentation entraîne une consommation d'énergie importante et réduit la durée de batterie, ce qui est primordiale pour un système embarqué. Nous proposons des mécanismes permettant de réduire la consommation d'énergie dans un système embarqué, plus particulièrement dans un terminal mobile sans fil. L'implantation efficace des algorithmes de traitement numérique du signal dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire des contraintes de coût, de consommation et d'encombrement. Dans les approches classiques, la largeur des données et des calculs est considérée au pire cas lors de la détermination des spécifications afin qu'elles soient satisfaites dans tout les cas. Nous proposons une approche d'adaptation dynamique, permettant de changer la spécification en fonction de l'environnement (par exemple les conditions d'un canal de transmission) avec pour objectif de réduire la consommation d'énergie dans certaines conditions. Tout d'abord, la relation entre la puissance de bruit de quantification et le taux d'erreur binaire du système en fonction du bruit au récepteur est établie pour une chaîne de transmission QPSK. Ce résultat est appliqué dans la technique d'accès multiple par répartition de codes en séquence directe (DS-CDMA). Parmi plusieurs systèmes de télécommunications utilisant la technique DS-CDMA, nous montrons comment adapter dynamiquement la précision de calcul d'un récepteur 3G WCDMA. La conversion en virgule fixe nécessite un algorithme d'optimisation combinatoire pour l'optimisation des largeurs des opérateurs sous une contrainte de précision. La deuxième axe de ces travaux de thèse concerne l'étude d'algorithmes d'optimisation adaptés au problème de l'optimisation des largeurs de données. Nous proposons de nouveaux algorithmes pour les problèmes à une seule contrainte ou à une suite des contraintes correspondant à différents niveaux de précision pour les systèmes auto-adaptatifs. Le résultat des algorithmes génétiques multi-objectifs, sous forme d'une frontière de Pareto, permet d'obtenir la largeur correspondant à chaque niveau du bruit de quantification. Une version améliorée des algorithmes génétiques combinée avec l'élitisme et la recherche tabou est proposée. En plus, nous proposons d'appliquer GRASP, un algorithme de recherche locale stochastique permettant de trouver le résultat dans un temps plus faible en comparaison avec les algorithmes génétiques.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Boucher, Mathieu. « Limites et précision d'une analyse mécanique de la performance sur ergocycle instrumenté ». Poitiers, 2005. http://www.theses.fr/2005POIT2260.

Texte intégral
Résumé :
En biomécanique, la modélisation du corps humain constitue un enjeu majeur dans l'estimation, lors d'une tâche imposée, des efforts musculaires et de la dépense métabolique sous-jacente. En parallèle, l'évaluation des qualités physiques réalisée en médecine du sport a besoin d'une caractérisation du mouvement des athlètes et de leurs interactions avec l'environnement extérieur, afin de comparer objectivement les mesures physiologiques. Le pédalage dans ces deux approches fait référence. L'objectif de ce travail est donc d'étudier les limites de l'analyse mécanique de la performance sur ergocycle reposant sur la dynamique inverse, limites inhérentes aux outils de mesure et à l'adéquation entre les données d'entrée de la modélisation du geste de pédalage et les données mesurées. L'évaluation de l'incertitude des grandeurs initiant le calcul des efforts articulaires permet d'en estimer les conséquences sur la précision de chaque paramètre mécanique utilisé dans l'analyse de la performance
In biomechanics, the modelling of the human body is a major stake to estimate, in an imposed task, muscular effort and subjacent metabolic expenditure. In parallel, the evaluation of physical abilities in sport medicine needs to characterize the athletes' motion and their interactions with the external environment, in order to compare physiological measurements more objectively. These two orientations are based mainly on the activities of cycling. The objective of this work is thus to study the limits of the mechanical analysis of the performance on ergocycle using inverse dynamics technique. These limits depend on the measuring instruments and on the adequacy between the data input of the cycling model and the data measured. The evaluations of the uncertainty of the quantities used in the calculation of the intersegment effort allow to estimate the consequences of them on the precision of each mechanical parameter used in the analysis of the performance
Styles APA, Harvard, Vancouver, ISO, etc.
8

Khali, Hakim. « Algorithmes et architectures de calcul spécialisés pour un système optique autosynchronisé à précision accrue ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0019/NQ53535.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Fall, Mamadou Mourtalla. « Contribution à la détermination de la précision de calcul des algorithmes de traitements numériques ». Châtenay-Malabry, Ecole centrale de Paris, 1991. http://www.theses.fr/1991ECAP0173.

Texte intégral
Résumé :
Les travaux effectués dans le cadre de cette thèse contribuent à la détermination de la précision de calcul des algorithmes de traitements numériques, par l'élaboration d'une nouvelle approche théorique et pratique de certification d'algorithmes. Par certification d'algorithme, nous entendons : 1) la quantification des erreurs de sortie lorsque celles d'entrée sont connues, 2) la détermination de la stabilité d'un algorithme dans tout son domaine de validité, 3) la détermination des points critiques de l'algorithme, 4) la comparaison et la graduation de nombreux algorithmes censés résoudre le même problème. L'algorithme à certifier sera considéré comme une boite noire dont on ne peut voir que les entrées et les sorties. A partir de son comportement en fonction des entrées données, nous construisons un modèle mathématique permettant de l'identifier, en tout point de son domaine de définition. La nouvelle approche élaborée est fondée sur la théorie des problèmes inverses associée à celle des probabilités.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Haddaoui, Khalil. « Méthodes numériques de haute précision et calcul scientifique pour le couplage de modèles hyperboliques ». Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066176/document.

Texte intégral
Résumé :
La simulation numérique adaptative d'écoulements présentant des phénomènes multi-échelles s'effectue généralement au moyen d'une hiérarchie de modèles différents selon l'échelle mise en jeu et le niveau de précision requis. Ce type de modélisation numérique entraîne des problèmes de couplage multi-échelles complexes. Cette thèse est ainsi dédiée au développement, à l'analyse et à la mise en œuvre de méthodes performantes permettant de résoudre des problèmes de couplage en espace de modèles décrits par des systèmes d'équations aux dérivées partielles hyperboliques.Dans une première partie, nous développons et analysons une méthode numérique dédiée au couplage interfacial des équations d'Euler mono-dimensionnelles. Chacun des systèmes de lois de conservation est muni d'une loi de pression distincte et l'interface de couplage séparant ces modèles est supposée fixe et infiniment mince. Les conditions de transmission sont modélisées par un terme source mesure localisé à l'interface de couplage. Le poids associé à cette mesure modélise les pertes de conservation à l'interface (typiquement des pertes de charge) et sa définition permet l'application de plusieurs stratégies de couplage. Notre méthode d'approximation repose sur les techniques d'approximation par relaxation de type Suliciu. La résolution exacte du problème de Riemann pour le système relaxé nous permet de définir un schéma numérique équilibre pour le modèle de couplage. Ce schéma préserve certaines solutions stationnaires du modèle de couplage et est applicable pour des lois de pression générales. L'implémentation de notre méthode permet de mener des expériences numériques illustrant les propriétés de notre schéma. Par exemple, nous montrons qu'il est possible de contrôler l'écoulement à l'interface de couplage en calculant des poids solutions de problèmes d'optimisation sous contraintes.La deuxième partie de cette thèse est dédiée au développement de deux schémas numériques d'ordre arbitrairement élevé en espace pour l'approximation des solutions stationnaires du problème mixte associé au modèle de Jin et Xin. Nos schémas d'approximation reposent sur la méthode de Galerkin discontinue. L’approximation des solutions du problème mixte par notre premier schéma fait intervenir uniquement des erreurs de discrétisation tandis que notre deuxième schéma est constitué à la fois d'erreurs de modélisation et de discrétisation. L'erreur de modélisation provient du remplacement, dans certaines régions spatiales, de la résolution du modèle de relaxation par celle de l'équation scalaire équilibre associée. Sous l'hypothèse d'une interface de couplage éventuellement caractéristique, la résolution du problème de Riemann associé au modèle couplé nous permet de construire un schéma numérique d'ordre arbitrairement élevé prenant en compte l'éventuelle existence de couches limites à l'interface de couplage. Enfin, la mise en œuvre de ces méthodes nous permet d'analyser quantitativement et qualitativement les erreurs de modélisation et de discrétisation commises lors de l'utilisation du schéma couplé. Ces erreurs sont fonction du niveau de raffinement de maillage utilisé, du degré de polynôme choisi et de la position de l'interface de couplage
The adaptive numerical simulation of multiscale flows is generally carried out by means of a hierarchy of different models according to the specific scale into play and the level of precision required. This kind of numerical modeling involves complex multiscale coupling problems. This thesis is thus devoted to the development, analysis and implementation of efficient methods for solving coupling problems involving hyperbolic models.In a first part, we develop and analyze a coupling algorithm for one-dimensional Euler systems. Each system of conservation laws is closed with a different pressure law and the coupling interface separating these models is assumed fix and thin. The transmission conditions linking the systems are modelled thanks to a measure source term concentrated at the coupling interface. The weight associated to this measure models the losses of conservation and its definition allows the application of several coupling strategies. Our method is based on Suliciu's relaxation approach. The exact resolution of the Riemann problem associated to the relaxed system allows us to design an extremely accurate scheme for the coupling model. This scheme preserves equilibrium solutions of the coupled problem and can be used for general pressure laws. Several numerical experiments assess the performances of our scheme. For instance, we show that it is possible to control the flow at the coupling interface when solving constrained optimization problems for the weights.In the second part of this manuscript we design two high order numerical schemes based on the discontinuous Galerkin method for the approximation of the initial-boundary value problem associated to Jin and Xin's model. Our first scheme involves only discretization errors whereas the second approximation involves both modeling and discretization errors. Indeed in the second approximation, we replace in some regions the resolution of the relaxation model by the resolution of its associated scalar equilibrium equation. Under the assumption of a possible characteristic coupling interface, we exactly solve the Riemann problem associated to the coupled model. This resolution allows us to design a high order numerical scheme which captures the possible boundary layers at the coupling interface. Finally, the implementation of our methods enables us to analyze quantitatively and qualitatively the modeling and discretization errors involved in the coupled scheme. These errors are functions of the mesh size, the degree of the polynomial approximation and the position of the coupling interface
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Précision de calcul"

1

« Précisions méthodologiques sur le calcul des revenus des ménages dans les différents segments de la distribution ». Dans Réformes économiques, 329. OECD, 2015. http://dx.doi.org/10.1787/growth-2015-50-fr.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie