Academic literature on the topic 'Calcul en précision mixte'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Calcul en précision mixte.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Calcul en précision mixte"

1

Lucie, Xavier, Sylvie Durrieu, Anne Jolly, Sylvain Labbé, and Jean-Pierre Renaud. "Comparaison de Modèles Numériques de Surface photogrammétriques de différentes résolutions en forêt mixte. estimation d'une variable dendrométrique simple : la hauteur dominante." Revue Française de Photogrammétrie et de Télédétection, no. 213 (April 26, 2017): 143–51. http://dx.doi.org/10.52638/rfpt.2017.197.

Full text
Abstract:
Le renouveau de la photogrammétrie et le développement de moyens aéroportés légers tels que les drones permettent de nouvelles applications dans le domaine de l'aménagement et la gestion forestière.L'estimation de variables forestières se fait dans le cadre de processus longs et fastidieux sur le terrain. Dans l'idée d'automatiser l'extraction de variables dendrométriques, nous mettons en place une méthodologie pour générer les modèles numériques de surfaces (MNS) par photogrammétrie multi-vues les plus précis possibles compte-tenu des limites imposées par les algorithmes de calcul. Nous utilisons pour ce faire la suite photogrammétrique libre de l'IGN MicMac.Notre zone d'étude se situe dans la forêt domaniale du Ventouret (région PACA) qui est une forêt mixte de moyenne montagne. Pour qualifier la précision de ces MNS, nous disposons de relevés dendrométriques sur des placettes d'analyse de 700 m² représentatives des peuplements les plus fréquents à l'échelle de la forêt. Ces zones ont été survolées par un drone multi-rotors équipé d'un appareil photo numérique à focale fixe. Les clichés ont une résolution spatiale de 2,5 cm contre 25 cm pour les prises de vues standardisées de l'IGN.Afin d'étudier l'impact de la résolution sur la qualité des MNS générés, nous dégradons la résolution des prises de vues du drone jusqu'à obtenir un pixel terrain d'une quarantaine de centimètres. Nous comparons ensuite les altitudes de chaque MNS avec des pointés stéréoscopiques de référence réalisés manuellement sur les prises de vues originales.En soustrayant à chaque MNS un modèle numérique de terrain (MNT) LiDAR, nous calculons ensuite un modèle de hauteur de couvert (MHC). L'étude de la distribution des hauteurs sur chaque placette et d'un modèle statistique de hauteur dominante (H0) nous permettent de conclure sur l'intérêt de l'approche photogrammétrique et de déterminer des résolutions spatiales optimales pour appuyer le travail des gestionnaires et aménagistes forestiers.
APA, Harvard, Vancouver, ISO, and other styles
2

AGABRIEL, J. "Avant-propos." INRAE Productions Animales 20, no. 2 (June 7, 2007): 107–8. http://dx.doi.org/10.20870/productions-animales.2007.20.2.3442.

Full text
Abstract:
L’alimentation des ruminants : un problème d’actualitéDans la conduite et la réussite d’un système de production de Ruminants, l’alimentation du troupeau reste un domaine très important qui continue de poser de nombreuses questions à la fois pratiques et théoriques. Pour l’éleveur, les postes récolte des fourrages et des céréales, achats d’aliments et entretien des surfaces fourragères représentent plus de 50 % des charges opérationnelles de son exploitation. Nourrir quotidiennement son troupeau lui impose de faire des choix de types de rations et en amont des choix stratégiques de long terme, sur la conduite de son système fourrager en considérant ses contraintes de milieu naturel, de bâtiments ou de stockage. La gestion de l’alimentation est directement liée à tous les autres choix stratégiques de l’activité d’élevage, le niveau de croissance des jeunes animaux, la reproduction, l’allotement la quantité et la qualité de la production. Pour le chercheur en nutrition animale, les enjeux sont devenus multiples et son positionnement a évolué : la recherche de la production maximale soutenue par l’alimentation a fait place à la volonté d’atteindre un optimum à la fois biologique, technique et économique selon les milieux dans lequel l’élevage est conduit. Il doit faire en sorte que la ration calculée par ses modèles satisfasse les besoins de l’animal selon les objectifs de production de l’éleveur, mais qu’elle participe également au bon état sanitaire et de bien-être du troupeau, qu’elle garantisse la qualité des produits et minimise l’impact défavorable des rejets sur l’environnement. La recherche en nutrition et alimentation des ruminants porte à la fois sur les fourrages, la physiologie digestive et métabolique de l’animal et son comportement alimentaire. En tenant compte de la complexité des mécanismes biologiques, les modèles nutritionnels doivent pouvoir simuler avec le maximum de précisions les flux de matières à travers le tube digestif et les organes sur des pas de temps variables, à la fois de court et de long terme. Cela reste un sujet perpétuellement en évolution qui exige aussi de synthétiser les connaissances sous forme d’outils d’aide à la décision et qui soit capable de présenter la qualité de ces outils et leurs limites d’usage. Une recherche qui se développe avec l’INRALes recherches pour aider à déterminer les choix d’alimentation des animaux en condition de production se sont concrétisées au cours du 20ème siècle. Les systèmes d’alimentation en énergie, azote et minéraux ont été développés en France après 1945. A l’INRA, le département Elevage des Ruminants sous l’impulsion de R. Jarrige avait initié une révision majeure des principes et des unités pratiques de terrain en 1978 en proposant un système énergétique construit sur la base de deux unités fourragères, lait et viande (UFL, UFV), un système des Protéines Digestibles dans l’Intestin (PDI) et des Tables complètes à la fois des besoins des animaux et de la valeur alimentaire des aliments. C’est notamment dans le domaine de la valeur nutritionnelle des fourrages que ces travaux étaient particulièrement riches. Ces «systèmes INRA» avaient alors été complétés par la première ébauche d’un modèle complètement nouveau de prévision de l’ingestion (système des Unités d’Encombrements UE) qui sera fortement remanié et amélioré dix ans plus tard lors de la révision de 1988. Ce nouvel ensemble, prévision de l’ingestion, estimation des besoins nutritionnels, a également permis d’accroître l’offre d’outils pratiques de terrain. En complèment des Tables imprimées, un outil informatique d’accompagnement et de rationnement «INRAtion» a été proposé dès 1992. Celui-ci s’est ensuite enrichi de l’outil de calcul de la prévision de la valeur des aliments «Prevalim;» et tous deux sont devenus des réceptacles appliqués des nouveautés scientifiques concernant les systèmes INRA. Mais, près de vingt ans après le dernier «Livre Rouge de l’Alimentation des bovins, ovins et caprins», une mise à niveau des ouvrages écrits s’imposait également et il est apparu nécessaire de proposer une actualisation des connaissances des principes du rationnement des ruminants. Les travaux des équipes de recherches ont permis de progresser aussi bien sur la caractérisation de la valeur des fourrages et des matières premières, que sur l’estimation des besoins des animaux et des apports nutritionnels recommandés dans des situations très diverses. Au delà des recommandations statiques, focalisées sur l’objectif de satisfaire les besoins, les lois de réponses dynamiques des pratiques alimentaires sont mieux connues et quantifiées. Elles permettent de mieux simuler les conséquences de la diversité des situations. L’objectif de l’ouvrage «Alimentation des bovins, ovins et caprins - Tables INRA 2007», sorti en février aux éditions Quæ, est ainsi de remettre sous la forme connue et largement adoptée par tous les acteurs des filières de l’élevage ruminant ces nouveaux résultats. Des documents complémentairesCependant le niveau scientifique choisi de l’ouvrage récemment paru et sa taille volontairement réduite pour en faire un ouvrage facilement accessible ont contraint les auteurs à aller à l’essentiel, les frustrant sans aucun doute d’une description et d’une discussion de fond de leurs résultats.En reprenant l’exemple de 1987 où le «livre rouge» publié par INRA Editions était complété par un numéro détaillé du Bulletin CRZVde Theix, nous avons donc décidé de publier un dossier dans la Revue INRA Productions Animales qui complète l’ouvrage de février. Ce dossier regroupe majoritairement des présentations et les explications des choix qui ont prévalu au développement des nouveaux modèles sous-tendus dans les recommandations. Il comporte 5 articles qui éclairent des points clés des innovations introduites en 2007, et qui correspondent soit à des nouveaux modèles mécanistes des fonctions de l’animal, soit à des méthodes de prévision de la valeur des fourrages, soit à des remises en cause plus profondes de l’ensemble apports, besoins comme c’est le cas pour la nutrition minérale.Toutefois, ce dossier n’est pas exhaustif des «nouveautés» du livre 2007. Certaines avaient été déjà publiées, soit dans des revues scientifiques, soit dans des sessions des «Rencontres Recherches Ruminants». Sans aucun doute d’autres viendront encore les compléter par la suite.Ainsi sont étudiés successivement des apports scientifiques sur la valeur des aliments et sur les besoins des animaux :1 - La dégradabilité des protéines dans le rumen (DT) et la digestibilité réelle des protéines alimentaires dans l’intestin grêle (dr). La valeur azotée des fourrages repose sur la bonne estimation de ces deux paramètres, qui sont la clé du calcul du système des protéines digestibles dans l’intestin PDI (article de M.-O. Nozières et al).2 - Les nouvelles valeurs minérales et vitaminiques des aliments. La possibilité de raisonner en éléments phosphore et calcium absorbables apporte de nouvelles précisions et modifie considérablement les quantités recommandées. L’article précise et actualise les Apports Journaliers Recommandés (AJR) d’éléments minéraux majeurs. Les autres minéraux, oligo-éléments et vitamines sont également revus de façon systématique et approfondie (article de F. Meschy et al).3 - De nouvelles équations statistiques de prévision de la digestibilité de la Matière Organique (dMO) des fourrages par la méthode pepsine-cellulase établies sur une banque de données couvrant une gamme plus importante de fourrages et de modes de conservation. La valeur énergétique des fourrages dépend en effet étroitement de la digestibilité de leur matière organique. Son estimation sur le terrain peut se faire à partir de méthodes de laboratoire comme la digestibilité pepsine-cellulase, utilisée en France depuis plus de vingt ans. Cette méthode est proposée pour sa bonne précision (article de J. Aufrère et al).4 - La composition du gain de poids chez des femelles adultes en période de finition qui permet de calculer ensuite directement le besoin en énergie et en protéines de l’animal. Ce modèle est suffisamment souple pour proposer un besoin face à un objectif de croissance donné, mais il propose aussi un niveau de croissance pour une ration d’un niveau énergétique donné. Ce nouveau modèle a été spécifiquement développé pour tenir compte de la très grande variabilité des situations pratiques rencontrées : la race, l’âge, le format, l’état d’engraissement initial et la vitesse du gain attendu (article de F. Garcia et J. Agabriel).5 - La capacité d’ingestion d’aliments par les vaches laitières au cours de leur lactation complète. Ce tout nouveau modèle s’adapte à tous types de vaches primipares, multipares et propose le nouveau concept de «lait potentiel» pour mieux décrire cette capacité d’ingestion. Ce concept est nécessaire pour répondre aux diverses stratégies des éleveurs dans la conduite de leurs animaux et qui ne souhaitent pas nécessairement les mener à leur maximum de production. Le modèle tient en effet compte de l’état initial de la vache au vêlage et des modifications d’état corporel qui accompagnent obligatoirement la conduite de la lactation (article de P. Faverdin et al).La Rédaction de la Revue a estimé judicieux de publier dans ce même numéro d’INRA Productions Animales, un travail très récent sur la teneur en matière grasse du lait de vache et sa prévision, qui pourra dans les années à venir se traduire concrètement dans les outils d’accompagnement de nos recommandations (article de Rulquin et al).A l’occasion de la publication de ce dossier, nous voulons plus particulièrement remercier tous les participants des Unités et Installations Expérimentales de l’INRA sans qui ces résultats ne seraient pas, ainsi que tout le personnel des Unités de Recherches qui ont participé dans les laboratoires ou derrière leurs écrans : l’Unité de Recherches sur les Herbivores (URH) de Clermont-Ferrand-Theix, l’Unité Mixte de Recherches sur la Production Laitière (UMR PL) de Rennes, l’Unité Mixte de Recherches Physiologie et Nutrition Animale (UMR PNA) de Paris, l’Unité Mixte de Recherches sur les Ruminants en Région Chaude (UMR ERRC) de Montpellier.
APA, Harvard, Vancouver, ISO, and other styles
3

Hassnaoui, Yonas. "Les codes de calcul de haute précision : quand le nucléaire met au pot commun." Revue Générale Nucléaire, no. 6 (November 2020): 38–41. http://dx.doi.org/10.1051/rgn/20206038.

Full text
Abstract:
L’exploitation des centrales nucléaires a toujours nécessité l’utilisation de codes de calcul informatique pour simuler les phénomènes physiques complexes. Ces codes de calcul de haute précision ne se cantonnent pas qu’au nucléaire, loin de là : tenue mécanique des structures, thermo-hydraulique, chimie séparative, etc. Leurs champs d’application sont nombreux et variés.
APA, Harvard, Vancouver, ISO, and other styles
4

Vazquez, J., M. François, and D. Gilbert. "Gestion en temps réel d'un réseau d'assainissement : vérification de l'optimalité et de l'applicabilité de la théorie des graphes par rapport à la programmation linéaire mixte." Revue des sciences de l'eau 16, no. 4 (April 12, 2005): 425–42. http://dx.doi.org/10.7202/705516ar.

Full text
Abstract:
Dans le cas de la gestion en temps réel des réseaux d'assainissement, la première étape peut, par exemple, consister à vérifier qu'une manipulation des organes de contrôle tels que les vannes et pompes est capable de minimiser les déversements vers le milieu naturel. Cette gestion, que l'on appellera " gestion de référence ", permet de déterminer les stratégies de commande sur toute la durée de l'événement pluvieux connu à l'avance. Ce calcul se fait donc à la fin de l'événement pluvieux et permet de dire ce qui aurait pu être fait avec les organes de régulation en terme de minimisation des volumes déversés. La programmation linéaire par les graphes et la programmation linéaire mixte permettent de déterminer une solution optimale. Cet article s'intéresse à la vérification de l'optimalité et à l'applicabilité de la programmation linéaire par les graphes comparée à la programmation linéaire mixte dans le cas de la " gestion de référence " sur le réseau d'assainissement de Saverne (France). En comparant les volumes déversés par ces deux techniques d'optimisation sur 34 événements pluvieux, nous pouvons confirmer que l'approche par les graphes ne donne pas toujours le minimum global. Les résultats ont montré que la programmation linéaire mixte fournit des temps de calcul qui peuvent atteindre plus de 24 heures. Par contre, l'approche par les graphes permet un temps de calcul de l'ordre de 5 minutes en moyenne avec un minimum global en terme de volume déversé atteint qui n'excède pas 5% par rapport à la solution fournie par la programmation linéaire mixte.
APA, Harvard, Vancouver, ISO, and other styles
5

Duget, Anne, Thierry Roux, Pierre Noire, and Olivier Lapierre. "Hexapodes de positionnement de précision." Photoniques, no. 115 (August 8, 2022): 51–56. http://dx.doi.org/10.1051/photon/202211257.

Full text
Abstract:
L’hexapode est un robot parallèle permettant la mise en position d’objets suivant les six degrés de liberté (trois translations Tx, Ty, Tz et trois rotations Rx, Ry, Rz). Au milieu du xxe siècle, les premiers hexapodes ont servi à tester des pneus ou comme simulateurs de vol. Dans les années 1990, grâce à l’évolution des composants électroniques et à l’augmentation des capacités de calcul, l’arrivée de contrôleurs abordables et performants a permis leur essor. Nous verrons dans cet article comment un hexapode est constitué et étudierons les critères de sélection les plus pertinents avant de décrire quelques exemples d’applications.
APA, Harvard, Vancouver, ISO, and other styles
6

POMAR, C., F. DUBEAU, and J. VAN MILGEN. "La détermination des besoins nutritionnels, la formulation multicritère et l’ajustement progressif des apports de nutriments aux besoins des porcs." INRAE Productions Animales 22, no. 1 (February 14, 2009): 49–54. http://dx.doi.org/10.20870/productions-animales.2009.22.1.3333.

Full text
Abstract:
Dans un contexte dans lequel le coût élevé des matières premières et l’utilisation de sources non renouvelables de phosphates sont des enjeux majeurs pour les productions animales, l’alimentation de précision est proposée comme une démarche essentielle à l’accroissement de l’efficacité d’utilisation de l’azote et du phosphore alimentaire, et par conséquent, une réduction de leur excrétion. Une alimentation de précision requiert de bien caractériser le potentiel nutritif des aliments, de déterminer avec précision les besoins nutritionnels des animaux, de prédire la réponse animale aux apports nutritionnels, de formuler d’aliments avec des contraintes environnementales, et d’ajuster progressivement les apports aux besoins décroissants des animaux. La mise en place d’une telle stratégie d’alimentation demande cependant d’accroître nos connaissances et d’améliorer nos méthodes de calcul afin de s’assurer que les formules alimentaires proposées soient celles qui optimiseront nos systèmes de production tant d’un point de vue animal, économique qu’environnemental.
APA, Harvard, Vancouver, ISO, and other styles
7

Amaouche, M., and C. Nouar. "Calcul au second ordre d'une couche limite de convection mixte." International Journal of Heat and Mass Transfer 36, no. 10 (July 1993): 2702–6. http://dx.doi.org/10.1016/s0017-9310(05)80207-8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Van-Wierts, Stéfanie, Pascal Bernatchez, and Christian Larouche. "Suivi topographique côtier au moyen d’un système LiDAR mobile terrestre : exemple d’une recharge sédimentaire de plage." GEOMATICA 71, no. 4 (December 2017): 194–212. http://dx.doi.org/10.5623/cig2017-402.

Full text
Abstract:
L’évolution côtière est complexe, notamment par la migration de la ligne de rivage et l’apparition successive de zones d’érosion ou d’accumulation. Les suivis quantitatifs des systèmes côtiers sont largement utilisés afin de comprendre leurs évolutions temporelle et spatiale. Plusieurs méthodes d’acquisition topographiques ont été utilisées (GNSS RTK, LiDAR aéroporté et LiDAR terrestre statique ou mobile) où chaque méthode présente des avantages et des inconvénients lors de suivis d’environnements côtiers. L’objectif de cet article est de quantifier la précision d’un système LiDAR mobile (SLM) terrestre et d’évaluer s’il peut répondre aux principaux défis des levés topographiques en milieu côtier qui consistent à réaliser des levés à une haute résolution temporelle, à moindre coût, tout en assurant une bonne précision altimétrique et une bonne résolution spatiale. Les résultats montrent que la résolution spatiale est centimétrique et que la précision altimétrique est de 0,039 m (RMS calculé sur 124 points de contrôle). La haute précision altimétrique et la haute résolution spatiale permettent de maximiser la précision des calculs de volume sédimentaire et ainsi diminuer les coûts associés à l’erreur de calcul, notamment lors de projets de recharge sédimentaire de plage. Cela permet aussi d’assurer le positionnement exact de limites marégraphiques et géomorphologiques. En comparaison à des profils topographiques obtenus par méthodes clas siques, la forte densité des nuages de points observés avec un SLM permet de cartographier des formes morphologiques de faible amplitude diminuant ainsi l’erreur due à l’interpolation.
APA, Harvard, Vancouver, ISO, and other styles
9

Hireche, Omar, Miloud Abidat, Leila Merahi, and Abbes Azzi. "Etude de l’Ecoulement Tridimensionnel dans un Rotor d’une Turbine Semi-axiale." Journal of Renewable Energies 2, no. 1 (June 30, 1999): 51–60. http://dx.doi.org/10.54966/jreen.v2i1.929.

Full text
Abstract:
Cet article fait le point d’une étude pour la simulation numérique d’un écoulement tridimensionnel dans le rotor d’une turbine semi-axiale par la résolution numérique des équations d’Euler (en fluide parfait) exprimées en coordonnées cylindriques. La méthode de calcul qui se caractérise par l’utilisation d’une technique de résolution par stationnarisation associée à un schéma explicite à viscosité corrigée et une approche par volumes finis, présente de bonnes propriétés de convergence et de précision.
APA, Harvard, Vancouver, ISO, and other styles
10

Até, Alain, and Shahram Aivazzadeh. "Un élément fini mixte tridimensionnel pour le calcul des contraintes d'interface." Revue Européenne des Éléments Finis 8, no. 7 (January 1999): 791–811. http://dx.doi.org/10.1080/12506559.1999.10511408.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Calcul en précision mixte"

1

Rappaport, Ari. "Estimations d'erreurs a posteriori et adaptivité en approximation numérique des EDPs : régularisation, linéarisation, discrétisation et précision en virgule flottante." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS057.

Full text
Abstract:
Cette thèse se concentre principalement sur l'analyse d'erreur a posteriori et les algorithmes adaptatifs qui en découlent pour résoudre itérativement des équations aux dérivées partielles (EDP) non linéaires. Nous considérons des EDP de type elliptique et parabolique dégénéré. Nous étudions également l'adaptivité dans la précision en virgule flottante d'un solveur multigrille. Dans les deux premiers chapitres, nous considérons des EDP elliptiques découlant d'un problème de minimisation d'énergie. L'analyse a posteriori est directement basée sur la différence d'énergie entre la solution vraie et approchée. Les applications non linéaires des EDP elliptiques que nous considérons sont en particulier fortement montones et Lipschitziennes. Dans ce contexte, une quantité importante est la « force de la non-linéarité » donnée par le rapport L/α où L est la constante de Lipschitz et α est la constante de (forte) montonicité. Dans le Chapitre 1, nous étudions un algorithme adaptatif comprenant la régularisation, la discrétisation et la linéarisation adaptative. L'algorithme est appliqué à une EDP elliptique avec une non-linéarité non régulière. Nous établissions une borne supérieure garantie, fondée sur un estimateur basé sur l'écart primal-dual. De plus, nous isolons les composantes de l'erreur correspondant à la régularisation, la discrétisation et la linéarisation qui conduisent à des critères d'arrêt adaptatifs. Nous prouvons que les estimateurs des composantes convergent vers zéro dans les limites respectives de régularisation, discrétisation et linéarisation de l'algorithme. Nous présentons des résultats numériques démontrant l'efficacité de l'algorithme. Nous présentons également des preuves numériques de robustesse par rapport au ratio mentionné L/α qui motive le travail dans le deuxième chapitre. Dans le Chapitre 2, nous examinons la question de l'efficacité et de la robustesse de l'estimateur d'erreur de l'écart primal-dual. Nous considérons en particulier une différence d'énergie augmentée, pour laquelle nous établissons une indépendance vis-à-vis de ce ratio pour la linéarisation de Zarantonello et seulement une dépendance locale et calculable par patch pour d'autres méthodes de linéarisation, y compris la linéarisation de Newton. Des résultats numériques sont présentés pour étayer les développements théoriques. Dans le Chapitre 3, nous nous tournons vers le problème de régularisation adaptative pour l'équation de Richards. L'équation de Richards apparaît dans le contexte de la modélisation des milieux poreux. Elle contient des non-linéarités non-régulières, et se prêtant à la même approche que celle adoptée dans le Chapitre 1. Nous développons des estimateurs, ici inspirés des estimateurs en norme duale du résidu, ainsi qu'un algorithme adaptatif basé sur ces estimateurs. Dans le Chapitre 4, nous fournissons des détails sur la mise en œuvre efficace du flux équilibré : un ingrédient crucial dans le calcul des estimateurs d'erreur. La mise en œuvre s'appuie sur le paradigme du multi-threading dans le langage de programmation Julia. Une boucle supplémentaire est introduite pour éviter les allocations de mémoire, essentielle pour obtenir un passage à l'échelle parallèle. Dans le Chapitre 5, nous considérons un algorithme de précision mixte avec une méthode de multigrille géométrique comme solveur interne. Le solveur multigrille fournit intrinsèquement un estimateur d'erreur que nous utilisons dans le critère d'arrêt pour le raffinement itératif. Nous présentons un benchmark pour démontrer l'accélération obtenue en utilisant des représentations en simple précision des matrices creuses impliquées. Nous concevons également un algorithme adaptatif qui utilise l'estimateur mentionné pour identifier quand le raffinement itératif échoue pour des problèmes trop mal conditionnés, l'algorithme est alors capable de récupérer et de résoudre le problème entièrement en double précision
This thesis concerns a posteriori error analysis and adaptive algorithms to approximately solve nonlinear partial differential equations (PDEs). We consider PDEs of both elliptic and degenerate parabolic type. We also study adaptivity in floating point precision of a multigrid solver of systems of linear algebraic equations. In the first two chapters, we consider elliptic PDEs arising from an energy minimization problem. The a posteriori analysis therein is based directly on the difference of the energy in the true and approximate solution. The nonlinear operators of the elliptic PDEs we consider are strongly monotone and Lipschitz continuous. In this context, an important quantity is the “strength of the nonlinearity” given by the ratio L/α where L is the Lipschitz continuity constant and α is the (strong) monotonicity constant. In Chapter 1 we study an adaptive algorithm comprising adaptive regularization, discretization, and linearization. The algorithm is applied to an elliptic PDE with a nonsmooth nonlinearity. We derive a guaranteed upper bound based on primal-dual gap based estimator. Moreover, we isolate components of the error corresponding to regularization, discretization, and linearization that lead to adaptive stopping criteria. We prove that the component estimators converge to zero in the respective limits of regularization, discretization, and linearization steps of the algorithm. We present numerical results demonstrating the effectiveness of the algorithm. We also present numerical evidence of robustness with respect to the aforementioned ratio L/α which motivates the work in the second chapter. In Chapter 2, we consider the question of efficiency and robustness of the primal-dual gap error estimator. We in particular consider an augmented energy difference, for which we establish independence of the ratio L/α (robustness) for the Zarantonello linearization and only patch-local and computable dependence for other linearization methods including the Newton linearization. Numerical results are presented to substantiate the theoretical developments. In Chapter 3 we turn our attention to the problem of adaptive regularization for the Richards equation. The Richards equation appears in the context of porous media modeling. It contains nonsmooth nonlinearities, which are amenable to the same approach we adopt in Chapter 1. We develop estimators and an adaptive algorithm where the estimators are inspired by estimators based on the dual norm of the residual. We test our algorithm on a series of numerical examples coming from the literature. In Chapter 4 we provide details for an efficient implementation of the equilibrated flux, a crucial ingredient in computing the error estimators so far discussed. The implementation relies on the multi-threading paradigm in the Julia programming language. An additional loop is introduced to avoid memory allocations, which is crucial to obtain parallel scaling. In Chapter 5 we consider a mixed precision iterative refinement algorithm with a geometric multigrid method as the inner solver. The multigrid solver inherently provides an error estimator of the algebraic error which we use in the stopping criterion for the iterative refinement. We present a benchmark to demonstrate the speedup obtained by using single precision representations of the sparse matrices involved. We also design an adaptive algorithm that uses the aforementioned estimator to identify when iterative refinement in single precision fails and is able to recover and solve the problem fully in double precision
APA, Harvard, Vancouver, ISO, and other styles
2

Robeyns, Matthieu. "Mixed precision algorithms for low-rank matrix and tensor approximations." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG095.

Full text
Abstract:
La gestion des données est souvent réalisée par des objets mathématiques tels que les matrices et les tenseurs, qui sont la généralisation des matrices à plus de deux dimensions.Certains domaines d'application nécessitent de stocker trop d'éléments, créant des tenseurs trop grands ; ce problème est connu sous le nom de emph curse of dimensionality.Des méthodes mathématiques telles que les approximations de rang faible ont été développées pour réduire la dimensionnalité de ces objets malgré un coût très élevé en temps de calcul.De plus, de nouvelles architectures informatiques telles que les GPU nous permettent d'effectuer des calculs rapidement, notamment lors de calculs en faible précision.Combiner ces nouvelles architectures avec l'approximation de rang faible est une solution malgré la qualité des résultats altérée par la faible précision.Cette thèse vise à proposer des algorithmes d'approximation de rang faible stables en faible précision tout en conservant l'accélération inhérente au calcul en faible précision, ce qui est réalisable grâce au calcul en précision mixte.Nous avons développé une méthode générale d'approximation de tenseurs en précision mixte en calculant d'abord une approximation en faible précision et en l'affinant itérativement avec une précision supérieure pour maintenir la qualité du résultat.Sachant que cette accélération provient principalement des architectures GPU, plus précisément d'unités de calcul spécialisées appelées emph tensor cores, nous avons développé une méthode générale d'approximation matricielle pour les architectures GPU en précision mixte utilisant ces emph tensor cores.Notre méthode maintient la qualité du résultat, mais au prix d'une approximation de dimension supérieur à celle des applications standards.Pour compenser cet écart, des méthodes de recompression de dimension existent pour différents formats de tenseurs.Notre contribution finale propose une méthode de recompression englobant les différents formats de tenseurs et de matrices tout en prouvant analytiquement sa stabilité
Data management is often done by mathematical objects such as matrices and tensors, which are the generalization of matrices to more than two dimensions.Some application domains require too many elements to be stored, creating tensors too large; this problem is known as the emph curse of dimensionality.Mathematical methods such as low-rank approximations have been developed to reduce the dimensionality of these objects despite a very high cost in computation time.Moreover, new computer architectures such as GPUs allow us to perform computations quickly, especially when computing with low precision.Combining these new architectures with low-rank approximation is a solution despite the quality of the results being impaired by low precision.This thesis aims to propose low-rank approximation algorithms that are stable in low precision while maintaining the speedup inherent in low-precision computation, which is feasible thanks to mixed-precision computation.We have developed a general method for mixed-precision tensor approximation by first computing a low-precision approximation and iteratively refining it with higher precision to maintain the quality of the result.Knowing that this speedup comes mainly from GPU architectures, more precisely from specialized computing units called emph ensor cores, we have developed a general matrix approximation method for mixed-precision GPU architectures using these emph tensor cores.Our method maintains the quality of the result but at the expense of a higher-dimensional approximation than standard applications.To compensate for this gap, dimension recompression methods exist for different tensor formats.Our final contribution proposes a recompression method encompassing the different tensor and matrix formats while proving analytically its stability
APA, Harvard, Vancouver, ISO, and other styles
3

Gratton, Serge. "Outils théoriques d'analyse du calcul à précision finie." Toulouse, INPT, 1998. http://www.theses.fr/1998INPT015H.

Full text
Abstract:
Nous présentons une théorie générale pour l'étude de la qualité du calcul en précision finie qui s'appuie sur la notion clé de calculabilité en précision finie. Une fois la calculabilité démontrée, se pose alors la question cruciale de la qualité des solutions obtenues par un calcul à précision finie. Pour y répondre, on utilise les notions d'erreur inverses et de conditionnement qui font partie de l'analyse inverse des erreurs introduite par Wilkinson. Nous appliquons cette théorie sur différents exemples issus de l'Algèbre Linéaire et de l'Optimisation. Nous présentons des formules explicites de conditionnement et d'erreur inverses sur divers problèmes d'Algèbre Linéaire. Nous proposons aussi une méthode systématique, fondée sur le produit de Kronecker, qui permet d'obtenir des formules explicites de conditionnements pour de nombreux problèmes. Nous étudions la notion de distance à la singularité dans le cas de polynômes d'une variable réelle ou complexe, ainsi que son lien avec le conditionnement. Nous montrons l'importance de cette notion pour la compréhension du comportement d'algorithmes de recherche de racines de polynômes en précision finie. Conditionnement et erreur inverse sont au cœur de l'étude approfondie que nous consacrons à deux méthodes numériques : les itérations successives pour la résolution de systèmes linéaires, et la méthode de Gauss-Newton pour la résolution de problèmes de moindres carrés non linéaires. Il apparaît que, même prouvé convergent en arithmétique exacte, un algorithme peut diverger lorsqu'il est employé en précision finie, et nous insistons sur la nécessité de disposer de condition de convergence robustes à la précision finie. De nombreux résultats développés dans cette thèse ont été obtenus dans le cadre d'une collaboration entre le CERFACS et le CNES centrée autour d'un problème de restitution d'orbite de satellite.
APA, Harvard, Vancouver, ISO, and other styles
4

Brunin, Maxime. "Étude du compromis précision statistique-temps de calcul." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I001/document.

Full text
Abstract:
Dans le contexte actuel, il est nécessaire de concevoir des algorithmes capables de traiter des données volumineuses en un minimum de temps de calcul. Par exemple, la programmation dynamique appliquée au problème de détection de ruptures ne permet pas de traiter rapidement des données ayant une taille d'échantillon supérieure à $10^{6}$. Les algorithmes itératifs fournissent une famille ordonnée d'estimateurs indexée par le nombre d'itérations. Dans cette thèse, nous avons étudié statistiquement cette famille d'estimateurs afin de sélectionner un estimateur ayant de bonnes performances statistiques et peu coûteux en temps de calcul. Pour cela, nous avons suivi l'approche utilisant les règles d'arrêt pour proposer un tel estimateur dans le cadre du problème de détection de ruptures dans la distribution et le problème de régression linéaire. Il est d'usage de faire un grand nombre d'itérations pour calculer un estimateur usuel. Une règle d'arrêt est l'itération à laquelle nous stoppons l'algorithme afin de limiter le phénomène de surapprentissage dont souffre ces estimateurs usuels. En stoppant l'algorithme plus tôt, les règles d'arrêt permettent aussi d'économiser du temps de calcul. Lorsque le budget de temps est limité, il se peut que nous n'ayons pas le temps d'itérer jusqu'à la règle d'arrêt. Dans ce contexte, nous avons étudié le choix optimal du nombre d'itérations et de la taille d'échantillon pour atteindre une précision statistique optimale. Des simulations ont mis en évidence un compromis entre le nombre d'itérations et la taille d'échantillon pour atteindre une précision statistique optimale à budget de temps limité
In the current context, we need to develop algorithms which are able to treat voluminous data with a short computation time. For instance, the dynamic programming applied to the change-point detection problem in the distribution can not treat quickly data with a sample size greater than $10^{6}$. The iterative algorithms provide an ordered family of estimators indexed by the number of iterations. In this thesis, we have studied statistically this family of estimators in oder to select one of them with good statistics performance and a low computation cost. To this end, we have followed the approach using the stopping rules to suggest an estimator within the framework of the change-point detection problem in the distribution and the linear regression problem. We use to do a lot of iterations to compute an usual estimator. A stopping rule is the iteration to which we stop the algorithm in oder to limit overfitting whose some usual estimators suffer from. By stopping the algorithm earlier, the stopping rules enable also to save computation time. Under time constraint, we may have no time to iterate until the stopping rule. In this context, we have studied the optimal choice of the number of iterations and the sample size to reach an optimal accuracy. Simulations highlight the trade-off between the number of iterations and the sample size in order to reach an optimal accuracy under time constraint
APA, Harvard, Vancouver, ISO, and other styles
5

Vaccon, Tristan. "Précision p-adique." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S032/document.

Full text
Abstract:
Les nombres p-adiques sont un analogue des nombres réels plus proche de l’arithmétique. L’avènement ces dernières décennies de la géométrie arithmétique a engendré la création de nombreux algorithmes utilisant ces nombres. Ces derniers ne peuvent être de manière générale manipulés qu’à précision finie. Nous proposons une méthode, dite de précision différentielle, pour étudier ces problèmes de précision. Elle permet de se ramener à un problème au premier ordre. Nous nous intéressons aussi à la question de savoir quelles bases de Gröbner peuvent être calculées sur les p-adiques
P-Adic numbers are a field in arithmetic analoguous to the real numbers. The advent during the last few decades of arithmetic geometry has yielded many algorithms using those numbers. Such numbers can only by handled with finite precision. We design a method, that we call differential precision, to study the behaviour of the precision in a p-adic context. It reduces the study to a first-order problem. We also study the question of which Gröbner bases can be computed over a p-adic number field
APA, Harvard, Vancouver, ISO, and other styles
6

Braconnier, Thierry. "Sur le calcul des valeurs propres en précision finie." Nancy 1, 1994. http://www.theses.fr/1994NAN10023.

Full text
Abstract:
Nous avons développé un code de calcul de valeurs propres pour matrices non symétriques de grande taille utilisant la méthode d'Arnoldi-Tchebycheff. Une étude a été menée pour mettre en évidence le rôle du défaut de normalité sur l'instabilité spectrale et la stabilité numérique d'algorithmes de calcul de valeurs propres. Des outils, tels que les méthodes de perturbations associées à des méthodes statistiques, ont été expérimentés afin d'apporter des informations qualitatives sur le spectre étudié. Ces outils permettent de comprendre le comportement numérique du problème traite en précision finie, dans les cas ou le calcul direct échoue
APA, Harvard, Vancouver, ISO, and other styles
7

Pirus, Denise. "Imprécisions numériques : méthode d'estimation et de contrôle de la précision en C.A.O." Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Pirus.Denise.SMZ9703.pdf.

Full text
Abstract:
L'objectif de ce mémoire est d'apporter une solution aux problèmes numériques causes par l'emploi de l'arithmétique flottante. Le premier chapitre aborde les problèmes que l'arithmétique en virgule flottante provoque, en particulier dans le cadre de la C. A. O. Nous nous intéressons également aux différentes méthodes et outils existants pour résoudre ces problèmes. Le second chapitre est consacré à l'étude de la propagation des erreurs au cours des algorithmes, principalement l'algorithme correspondant à la détermination de l'intersection de deux droites. L'utilisation de l'analyse différentielle n'est pas suffisante pour obtenir une bonne approximation des erreurs affectant les résultats de calcul. Nous déterminons alors une estimation de la perte de précision au cours du calcul du point d'intersection de deux droites, en fonction de l'angle qu'elles forment, à l'aide de l'arithmétique d'intervalle. Le troisième chapitre présente la méthode cestac (contrôle stochastique des arrondis de calculs) vig 93 qui permet d'estimer le nombre de chiffres significatifs affectant le résultat d'un calcul numérique. Le quatrième chapitre traite du calcul formel, de l'arithmétique rationnelle et de l'utilisation du logiciel pari pour éviter les problèmes causes par l'utilisation de grands entiers. Le cinquième chapitre décrit notre méthodologie qui consiste à déterminer la précision d'un calcul a l'aide de la méthode cestac et qui, si la précision n'est pas suffisante, utilise l'arithmétique rationnelle. Nous modifions aussi les instructions conditionnelles, afin que les tests soient effectués en fonction de la précision des données
The object of this thesis is to bring a solution of numerical problems caused by the use of floating point arithmetic. The first chapter tackles the problems which are induced by the floating point arithmetic. One also develop the different existing methods and tools to solve these problems. The second chapter is devoted to the study of the spreader of errors during algorithms. Differential analysis is not adequate to obtain a good approximation of errors affecting the results of calculation. We next determine an estimation of the loss of precision during the calculation of the intersection point of two lines, according to the angle they draw up. The third chapter presents the method CESTAC (Stochastic checking of rounding of calculaation) [vig 93] which allows to estimate the number of significant digits affecting the result of a numerical calculation. The fourth chapter deals with computer algebra, as with the rational arithmetic and specially with the utilization of software Pari in order to avoid the problems caused by large integers. The fifth chapter describes our methodology which consists to determine the precision of a calculation with the assistance of the method CESTAC and which, if the precision isn't sufficient, uses the rational arithmetic. We also amend the conditional instructions, so that the tests be executed according to the precision of each data
APA, Harvard, Vancouver, ISO, and other styles
8

Nguyen, Hai-Nam. "Optimisation de la précision de calcul pour la réduction d'énergie des systèmes embarqués." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00705141.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de la forte augmentation du débit et de la puissance de calcul des systèmes de télécommunications. Cette augmentation entraîne une consommation d'énergie importante et réduit la durée de batterie, ce qui est primordiale pour un système embarqué. Nous proposons des mécanismes permettant de réduire la consommation d'énergie dans un système embarqué, plus particulièrement dans un terminal mobile sans fil. L'implantation efficace des algorithmes de traitement numérique du signal dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire des contraintes de coût, de consommation et d'encombrement. Dans les approches classiques, la largeur des données et des calculs est considérée au pire cas lors de la détermination des spécifications afin qu'elles soient satisfaites dans tout les cas. Nous proposons une approche d'adaptation dynamique, permettant de changer la spécification en fonction de l'environnement (par exemple les conditions d'un canal de transmission) avec pour objectif de réduire la consommation d'énergie dans certaines conditions. Tout d'abord, la relation entre la puissance de bruit de quantification et le taux d'erreur binaire du système en fonction du bruit au récepteur est établie pour une chaîne de transmission QPSK. Ce résultat est appliqué dans la technique d'accès multiple par répartition de codes en séquence directe (DS-CDMA). Parmi plusieurs systèmes de télécommunications utilisant la technique DS-CDMA, nous montrons comment adapter dynamiquement la précision de calcul d'un récepteur 3G WCDMA. La conversion en virgule fixe nécessite un algorithme d'optimisation combinatoire pour l'optimisation des largeurs des opérateurs sous une contrainte de précision. La deuxième axe de ces travaux de thèse concerne l'étude d'algorithmes d'optimisation adaptés au problème de l'optimisation des largeurs de données. Nous proposons de nouveaux algorithmes pour les problèmes à une seule contrainte ou à une suite des contraintes correspondant à différents niveaux de précision pour les systèmes auto-adaptatifs. Le résultat des algorithmes génétiques multi-objectifs, sous forme d'une frontière de Pareto, permet d'obtenir la largeur correspondant à chaque niveau du bruit de quantification. Une version améliorée des algorithmes génétiques combinée avec l'élitisme et la recherche tabou est proposée. En plus, nous proposons d'appliquer GRASP, un algorithme de recherche locale stochastique permettant de trouver le résultat dans un temps plus faible en comparaison avec les algorithmes génétiques.
APA, Harvard, Vancouver, ISO, and other styles
9

Boucher, Mathieu. "Limites et précision d'une analyse mécanique de la performance sur ergocycle instrumenté." Poitiers, 2005. http://www.theses.fr/2005POIT2260.

Full text
Abstract:
En biomécanique, la modélisation du corps humain constitue un enjeu majeur dans l'estimation, lors d'une tâche imposée, des efforts musculaires et de la dépense métabolique sous-jacente. En parallèle, l'évaluation des qualités physiques réalisée en médecine du sport a besoin d'une caractérisation du mouvement des athlètes et de leurs interactions avec l'environnement extérieur, afin de comparer objectivement les mesures physiologiques. Le pédalage dans ces deux approches fait référence. L'objectif de ce travail est donc d'étudier les limites de l'analyse mécanique de la performance sur ergocycle reposant sur la dynamique inverse, limites inhérentes aux outils de mesure et à l'adéquation entre les données d'entrée de la modélisation du geste de pédalage et les données mesurées. L'évaluation de l'incertitude des grandeurs initiant le calcul des efforts articulaires permet d'en estimer les conséquences sur la précision de chaque paramètre mécanique utilisé dans l'analyse de la performance
In biomechanics, the modelling of the human body is a major stake to estimate, in an imposed task, muscular effort and subjacent metabolic expenditure. In parallel, the evaluation of physical abilities in sport medicine needs to characterize the athletes' motion and their interactions with the external environment, in order to compare physiological measurements more objectively. These two orientations are based mainly on the activities of cycling. The objective of this work is thus to study the limits of the mechanical analysis of the performance on ergocycle using inverse dynamics technique. These limits depend on the measuring instruments and on the adequacy between the data input of the cycling model and the data measured. The evaluations of the uncertainty of the quantities used in the calculation of the intersegment effort allow to estimate the consequences of them on the precision of each mechanical parameter used in the analysis of the performance
APA, Harvard, Vancouver, ISO, and other styles
10

Khali, Hakim. "Algorithmes et architectures de calcul spécialisés pour un système optique autosynchronisé à précision accrue." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0019/NQ53535.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Calcul en précision mixte"

1

Fatigue Design of Steel and Composite Structures Eurocode - Design of Steel Structures: Design of Composite Steel and Concrete Structures. Wiley-VCH Verlag GmbH, 2018.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Calcul en précision mixte"

1

Baranes, M., and T. Fortin. "Planification et chirurgie guidée - Avis d’experts : Apports des nouvelles technologies en implantologie : de la planification à la réalisation de la prothèse provisoire immédiate." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601011.

Full text
Abstract:
Les dernières technologies informatiques ainsi que le développement des imprimantes 3D ouvrent des perspectives intéressantes en terme de diagnostic et de thérapeutique en implantologie (1). Le plan de traitement prothétique doit guider le choix du nombre et du positionnement des implants. Les logiciels de planification implantaire permettent de superposer les fichiers DICOM (Digital Imaging and Communications in Medicine) de limagerie tridimensionnelle issue du CBCT et les données numériques de surface issues d’empreintes optiques ou de la numérisation de modèles conventionnels (2). Les modélisations occlusales peuvent être elles aussi réalisées virtuellement en statique et dynamique via l’utilisation darticulateurs virtuels (3,4). Un guide chirurgical est alors imprimé permettant de positionner les implants selon la planification virtuelle. Dans certains cas, la restauration provisoire peut être prévue à l’avance et mise en place à lissue de lintervention (5,6). Bien quil soit établit que la chirurgie guidée soit plus précise que la chirurgie à main levée (7), son utilisation en pratique quotidienne a été ralentie en grande partie à cause du coût de fabrication élevé. Le développement récent dimprimantes 3D de bureau de haute précision (8,9) et la multiplicité des logiciels de planification implantaire ont permis le développement de la chirurgie guidée. Cependant, à chaque étape du flux numérique, des imprécisions peuvent se cumuler pouvant aboutir à des erreurs de positionnement ayant des conséquences potentiellement graves : proximité avec les racines adjacentes, perforation des racines, lésion nerveuse. La précision des guides chirurgicaux sté- réolithographiques dépend de nombreux paramètres : lempreinte, l’impression du guide, le matériau utilisé, la nature du support, lexpérience du praticien. Les empreintes optiques réalisées avec des scanners intra-oraux de plus en plus puissants présentent de nombreux avantages par rapport aux techniques conventionnelles en terme de rapidité, de précision et de reproductibilité. (10-14). Les guides peuvent être à appui osseux, muqueux, dentaire ou mixte. Une revue systématique de la littérature de Gallardo et coll. en 2017 (15) compare la précision des guides chirurgicaux en fonction du type de support. Cette revue conclut que les guides à appui osseux présentent le plus de déviation au niveau de langle, du point dentrée et de la localisation de lapex de l’implant par rapport aux guides à appuis dentaires. Les guides à appuis muqueux montrent moins de déviation par rapport aux guides à appuis osseux. Les auteurs nont pas trouvé de différence statistiquement significative entre les guides à appuis dentaires et muqueux. Selon L’étude de Cassetta publiée en 2017 (16), lexpérience du praticien influence la précision du positionnement des implants en chirurgie guidée. Un praticien novice en implantologie présente plus de déviation sur le positionnement des implants avec lutili- sation d’un guide chirurgical stéréolithographique quun praticien expérimentée. La chirurgie implantaire guidée reste un outil et nécessite une expérience chirurgicale. Le flux numérique en implantologie peut aujourdhui se réaliser de la prise d’empreintes d’étude à la fabrication de la restauration prothétique implantaire en passant par la conception et l’impression d’un guide chirurgi- cal. Ce flux est une aide précieuse en terme de communication avec le patient mais aussi avec le prothésiste, il permet daugmenter la reproductibilité des résultats et daboutir à une restauration prothétique esthétique et fonctionnelle.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography