Literatura académica sobre el tema "Calcul conscient de la précision"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Calcul conscient de la précision".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Calcul conscient de la précision"

1

SACRAMENTO, Isabelle Tèniola, Guy Apollinaire MENSAH y Jean-Marc ATEGBO. "Détermination de l’âge de l’aulacode par le poids du cristallin de l’œil". Journal of Applied Biosciences 181 (31 de enero de 2023): 18917–24. http://dx.doi.org/10.35759/jabs.181.4.

Texto completo
Resumen
Objectifs : Conscient que la qualité de la viande varie en fonction de l’âge, la détermination de l’âge de l’aulacode gibier dans le but de comparer la qualité organoleptique, microbiologique et technologique de sa viande à celle de l’aulacode d’élevage est indispensable ce qui justifie la présente étude. Méthodologie et résultats : L’âge de 24, 36 et 48 semaines respectivement des 150 aulacodes tous sexes confondus (50 aulacodes par tranche d’âge) étudiés était connu avec précision au moment du prélèvement du cristallin. Un total de 60 aulacodes sauvages ou aulacodes gibiers dont 30 aulacodins et 30 aulacodines, avec des âges estimés à 7, 8 et 12 mois, abattus par des chasseurs a été utilisé dans cette étude. La technique de Lord (1959) modifiée par Martinet (1966) a été employée. Dès leur abattage, les aulacodes âgés de 24, 36 et 48 semaines ont été mesurés, pesés pleins et vidés au kg puis sexés. Les deux yeux ont été prélevés entiers et intacts et mis dans un flacon d’eau formolée à 10%. Les yeux ont été conservés dans un flacon étanche à large ouverture en polyéthylène de PROLABO et n’ont pas été congelés. Le flacon a été muni d’une étiquette autocollante renseignée de façon indélébile où a été mentionnée la date de l’abattage, le sexe et le poids exact pesé plein et vide. Un séjour de 30 jours minimum dans une solution de formol a été nécessaire pour permettre la stabilisation du cristallin et sa manipulation sans risque de l’abimer. Les cristallins ont été alors extraits du globe oculaire, nettoyés et mis à dessiccation complète dans une étuve ventilée à 100° C pendant 24 heures. Ils ont été ensuite pesés au milligramme près (0,000). Enfin le poids moyen des cristallins a été calculé pour chaque tranche d’âge. Conclusion et application des résultats: La courbe établie permettra de déterminer avec précision l’âge des aulacodes d’élevage sans fiche de suivi, des aulacodes gibiers et des rongeurs apparentés à l’aulacode chaque fois que le processus de prélèvement du cristallin utilisé dans cette étude sera respecté. Mots-clés : Aulacodes, Bénin, détermination de l’âge, équation de prédiction, pesée de cristallin.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Hassnaoui, Yonas. "Les codes de calcul de haute précision : quand le nucléaire met au pot commun". Revue Générale Nucléaire, n.º 6 (noviembre de 2020): 38–41. http://dx.doi.org/10.1051/rgn/20206038.

Texto completo
Resumen
L’exploitation des centrales nucléaires a toujours nécessité l’utilisation de codes de calcul informatique pour simuler les phénomènes physiques complexes. Ces codes de calcul de haute précision ne se cantonnent pas qu’au nucléaire, loin de là : tenue mécanique des structures, thermo-hydraulique, chimie séparative, etc. Leurs champs d’application sont nombreux et variés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Duget, Anne, Thierry Roux, Pierre Noire y Olivier Lapierre. "Hexapodes de positionnement de précision". Photoniques, n.º 115 (8 de agosto de 2022): 51–56. http://dx.doi.org/10.1051/photon/202211257.

Texto completo
Resumen
L’hexapode est un robot parallèle permettant la mise en position d’objets suivant les six degrés de liberté (trois translations Tx, Ty, Tz et trois rotations Rx, Ry, Rz). Au milieu du xxe siècle, les premiers hexapodes ont servi à tester des pneus ou comme simulateurs de vol. Dans les années 1990, grâce à l’évolution des composants électroniques et à l’augmentation des capacités de calcul, l’arrivée de contrôleurs abordables et performants a permis leur essor. Nous verrons dans cet article comment un hexapode est constitué et étudierons les critères de sélection les plus pertinents avant de décrire quelques exemples d’applications.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Everett, Jane. "Traduire Pierre Vadeboncoeur". Études littéraires 29, n.º 2 (12 de abril de 2005): 19–38. http://dx.doi.org/10.7202/501156ar.

Texto completo
Resumen
La tentative de traduire un court essai de Pierre Vadeboncoeur, « Sur une phrase fameuse de Rimbaud », enrichit notre compréhension du texte en même temps qu'elle pose un défi au traducteur. La traduction est ici envisagée comme un processus duel, à la fois réencodage et exégèse. Après l'analyse de l'essai et l'identification de certaines de ses composantes essentielles, l'auteure discute des problèmes soulevés lors de l'opération traduisante. Elle constate que pour reproduire la voix de l'essayiste avec quelque de précision, il faut être pleinement conscient des « répercussions » de ses choix à tous les niveaux du texte.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

POMAR, C., F. DUBEAU y J. VAN MILGEN. "La détermination des besoins nutritionnels, la formulation multicritère et l’ajustement progressif des apports de nutriments aux besoins des porcs". INRAE Productions Animales 22, n.º 1 (14 de febrero de 2009): 49–54. http://dx.doi.org/10.20870/productions-animales.2009.22.1.3333.

Texto completo
Resumen
Dans un contexte dans lequel le coût élevé des matières premières et l’utilisation de sources non renouvelables de phosphates sont des enjeux majeurs pour les productions animales, l’alimentation de précision est proposée comme une démarche essentielle à l’accroissement de l’efficacité d’utilisation de l’azote et du phosphore alimentaire, et par conséquent, une réduction de leur excrétion. Une alimentation de précision requiert de bien caractériser le potentiel nutritif des aliments, de déterminer avec précision les besoins nutritionnels des animaux, de prédire la réponse animale aux apports nutritionnels, de formuler d’aliments avec des contraintes environnementales, et d’ajuster progressivement les apports aux besoins décroissants des animaux. La mise en place d’une telle stratégie d’alimentation demande cependant d’accroître nos connaissances et d’améliorer nos méthodes de calcul afin de s’assurer que les formules alimentaires proposées soient celles qui optimiseront nos systèmes de production tant d’un point de vue animal, économique qu’environnemental.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Van-Wierts, Stéfanie, Pascal Bernatchez y Christian Larouche. "Suivi topographique côtier au moyen d’un système LiDAR mobile terrestre : exemple d’une recharge sédimentaire de plage". GEOMATICA 71, n.º 4 (diciembre de 2017): 194–212. http://dx.doi.org/10.5623/cig2017-402.

Texto completo
Resumen
L’évolution côtière est complexe, notamment par la migration de la ligne de rivage et l’apparition successive de zones d’érosion ou d’accumulation. Les suivis quantitatifs des systèmes côtiers sont largement utilisés afin de comprendre leurs évolutions temporelle et spatiale. Plusieurs méthodes d’acquisition topographiques ont été utilisées (GNSS RTK, LiDAR aéroporté et LiDAR terrestre statique ou mobile) où chaque méthode présente des avantages et des inconvénients lors de suivis d’environnements côtiers. L’objectif de cet article est de quantifier la précision d’un système LiDAR mobile (SLM) terrestre et d’évaluer s’il peut répondre aux principaux défis des levés topographiques en milieu côtier qui consistent à réaliser des levés à une haute résolution temporelle, à moindre coût, tout en assurant une bonne précision altimétrique et une bonne résolution spatiale. Les résultats montrent que la résolution spatiale est centimétrique et que la précision altimétrique est de 0,039 m (RMS calculé sur 124 points de contrôle). La haute précision altimétrique et la haute résolution spatiale permettent de maximiser la précision des calculs de volume sédimentaire et ainsi diminuer les coûts associés à l’erreur de calcul, notamment lors de projets de recharge sédimentaire de plage. Cela permet aussi d’assurer le positionnement exact de limites marégraphiques et géomorphologiques. En comparaison à des profils topographiques obtenus par méthodes clas siques, la forte densité des nuages de points observés avec un SLM permet de cartographier des formes morphologiques de faible amplitude diminuant ainsi l’erreur due à l’interpolation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Hireche, Omar, Miloud Abidat, Leila Merahi y Abbes Azzi. "Etude de l’Ecoulement Tridimensionnel dans un Rotor d’une Turbine Semi-axiale". Journal of Renewable Energies 2, n.º 1 (30 de junio de 1999): 51–60. http://dx.doi.org/10.54966/jreen.v2i1.929.

Texto completo
Resumen
Cet article fait le point d’une étude pour la simulation numérique d’un écoulement tridimensionnel dans le rotor d’une turbine semi-axiale par la résolution numérique des équations d’Euler (en fluide parfait) exprimées en coordonnées cylindriques. La méthode de calcul qui se caractérise par l’utilisation d’une technique de résolution par stationnarisation associée à un schéma explicite à viscosité corrigée et une approche par volumes finis, présente de bonnes propriétés de convergence et de précision.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Guiñon, J. L. y M. Belanche. "Application de la résonance magnétique nucléaire du proton au dosage de l'éthanol dans les boissons alcoolisées". OENO One 23, n.º 4 (31 de diciembre de 1989): 215. http://dx.doi.org/10.20870/oeno-one.1989.23.4.1245.

Texto completo
Resumen
<p style="text-align: justify;">Une équation pour le calcul de la teneur en éthanol basée sur les surfaces d'un spectre (H1-RMN) (Résonance magnétique du proton) est décrite. Les résultats obtenus par application de cette équation dans le vin et dans les boissons alcoolisées sont discutés. La méthode peut être retenue comme un dosage rapide de l'éthanol avec une précision de ± 6 p. 100 dans la gamme de 0 - 50 p. 100 vol. d'éthanol.</p>
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Knönagel y Müntener. "Urolithiasis und Ultraschalldiagnostik". Praxis 91, n.º 14 (1 de abril de 2002): 603–9. http://dx.doi.org/10.1024/0369-8394.91.14.603.

Texto completo
Resumen
L'urolithiase est une maladie très répandue en Europe et aux Etats-Unis. Grâce à sa grande précision, son application non invasive et sa disponibilité rapide et peu coûteuse, elle joue un rôle primordial pour le diagnostic et le suivi de l'urolithiase. La sonographie en Color-Mode est populaire, mais de moindre importance pour le patient atteint d'un calcul de l'uretère. En plus de la thérapie conservatrice, la lithotripsie extracorporelle (LEOC) est la méthode la plus adéquate. Après le traitement conservateur et interventionnel, il faut faire des contrôles sonographiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Bellel, Nadir y Abla Chaker. "Etude et Optimisation du Réseau de Circulation du Fluide Caloporteur d’un Convertisseur Thermique". Journal of Renewable Energies 7, n.º 2 (31 de diciembre de 2004): 85–94. http://dx.doi.org/10.54966/jreen.v7i2.869.

Texto completo
Resumen
La comparaison de deux géométries du réseau du caloporteur d'un capteur plan classique, nous oblige à mettre en évidence l'influence des pertes par convection sur le bilan optothermique de ce capteur. Partant des caractéristiques optiques et géométriques du capteur, des caractéristiques hydrauliques du fluide caloporteur, nous évaluons avec le maximum de précision les différentes composantes du bilan thermique en tenant compte notamment des gradients de température dans l'absorbeur. Ce travail a été mené avec de l'eau pressurisée comme fluide caloporteur. Notre étude théorique a été menée en utilisant un programme de calcul développé au laboratoire se basant sur la méthode des différences finies. Ce programme a été validé par les résultats expérimentaux dans les mêmes conditions météorologiques. Le convertisseur type serpentin a été choisi.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Calcul conscient de la précision"

1

Piri, Ali. "Design space exploration for accuracy-aware computing". Electronic Thesis or Diss., Ecully, Ecole centrale de Lyon, 2024. http://www.theses.fr/2024ECDL0052.

Texto completo
Resumen
L'augmentation de la complexité des applications à grande échelle, telles que le calcul scientifique et l'analyse de données, a entraîné une demande croissante de ressources informatiques. Les méthodes traditionnelles deviennent insuffisantes pour gérer le volume de données en constante augmentation. Cette thèse traite de l'écart entre la croissance des données et les avancées des processeurs en introduisant des stratégies visant à améliorer l'efficacité computationnelle sans sacrifier les performances. Un accent particulier est mis sur le calcul approximatif (AxC), qui exploite la tolérance aux erreurs inhérente à de nombreuses applications, telles que le traitement multimédia et l'apprentissage automatique, pour équilibrer les performances avec des niveaux d'erreur acceptables. Nous avons réalisé une revue complète des approximations fonctionnelles au niveau des circuits dans divers multiplicateurs, afin d'approfondir notre compréhension des techniques utilisées. Nous avons également discuté des principaux critères de précision pour évaluer la performance et la fiabilité de ces opérateurs aux niveaux des applications et des systèmes. En outre, nous avons passé en revue les méthodes automatiques issues de la littérature qui soutiennent une adoption plus large des circuits approximatifs, en soulignant la nécessité d'une approche systématique pour leur conception. La contribution principale de cette thèse est l'introduction du calcul approximatif sensible aux entrées, qui fait progresser la conception de systèmes efficaces en optimisant la performance et la consommation d'énergie tout en maintenant une précision acceptable. L'objectif était de développer des méthodes largement applicables, mais spécifiquement optimisées pour certaines charges de travail. Initialement, l'identification manuelle des sections de circuits à approximations a mis en évidence des défis de scalabilité et la nécessité d'une expertise spécialisée. Pour y remédier, une approche de conception automatisée a été mise en œuvre, optimisant les circuits en fonction de distributions d'entrées spécifiques. Testée avec le filtre FIT, cette approche a constamment amélioré la précision et l'efficacité énergétique par rapport aux méthodes traditionnelles. L'approximation sensible aux entrées est particulièrement utile pour les applications avec des schémas d'entrées prévisibles, telles que les systèmes embarqués, l'inférence d'apprentissage automatique et le traitement de signaux en temps réel. Cette thèse explore également la relation entre le calcul approximatif et la résilience des réseaux neuronaux profonds (DNNs), cruciaux dans de nombreuses applications. Elle analyse comment les DNNs, en particulier ceux implémentés sur des matrices systoliques personnalisées, réagissent aux fautes provenant des multiplicateurs approximatifs, en utilisant un cadre d'injection de fautes pour une simulation efficace. L'étude a révélé que bien que les DNNs soient intrinsèquement tolérants aux fautes, les approximations peuvent avoir un impact significatif sur la précision. Une analyse au niveau des bits a révélé que les bits critiques, comme le bit le plus significatif (MSB), sont particulièrement affectés. De plus, le compromis entre l'efficacité énergétique et la résilience a été souligné, montrant que les économies d'énergie issues du calcul approximatif doivent être équilibrées avec le potentiel de dégradation des performances
The increasing complexity of large-scale applications, such as scientific computing and data analytics, has driven growing demands for computational resources. Traditional methods are becoming insufficient to handle the surging data volume. This thesis addresses the gap between data growth and processor advancements by introducing strategies for improving computational efficiency without sacrificing performance. A key focus is Approximate Computing (AxC), which leverages the inherent error tolerance in many applications—such as multimedia processing and machine learning—to balance performance with acceptable error levels. We conducted a comprehensive review of circuit-level functional approximations in various multipliers, aiming to deepen our understanding of the techniques used. We also discussed key accuracy metrics for evaluating the performance and reliability of these operators at the application and system levels. In addition, we reviewed automatic methods from the literature that support the broader adoption of approximate circuits, highlighting the need for a systematic approach to their design. The key contribution of the thesis is the introduction of input-aware approximate computing, which advances the design of efficient systems by optimizing performance and energy consumption while maintaining acceptable accuracy. The goal was to develop methods that are broadly applicable but specifically optimized for certain workloads. Initially, manual identification of circuit sections for approximation highlighted scalability challenges and the need for specialized expertise. To address this, an automated design approach was implemented, optimizing circuits based on specific input distributions. Tested with the FIT filter, this approach consistently improved accuracy and energy efficiency compared to traditional methods. Input-aware approximation is especially valuable for applications with predictable input patterns, such as embedded systems, machine learning inference, and real-time signal processing. This thesis also explores the relationship between approximate computing and the resilience of deep neural networks (DNNs), which are crucial in many applications. It analyzes how DNNs, especially those implemented on custom systolic arrays, respond to faults from approximate multipliers, using a Fault Injector Framework for efficient simulation. The study found that while DNNs are inherently fault-tolerant, approximations can significantly impact accuracy. A per-bit analysis revealed that critical bits, like the most significant bit (MSB), are particularly affected. Additionally, the trade-off between energy efficiency and resilience was highlighted, showing that energy savings from approximate computing must be balanced with the potential for performance degradation
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Gratton, Serge. "Outils théoriques d'analyse du calcul à précision finie". Toulouse, INPT, 1998. http://www.theses.fr/1998INPT015H.

Texto completo
Resumen
Nous présentons une théorie générale pour l'étude de la qualité du calcul en précision finie qui s'appuie sur la notion clé de calculabilité en précision finie. Une fois la calculabilité démontrée, se pose alors la question cruciale de la qualité des solutions obtenues par un calcul à précision finie. Pour y répondre, on utilise les notions d'erreur inverses et de conditionnement qui font partie de l'analyse inverse des erreurs introduite par Wilkinson. Nous appliquons cette théorie sur différents exemples issus de l'Algèbre Linéaire et de l'Optimisation. Nous présentons des formules explicites de conditionnement et d'erreur inverses sur divers problèmes d'Algèbre Linéaire. Nous proposons aussi une méthode systématique, fondée sur le produit de Kronecker, qui permet d'obtenir des formules explicites de conditionnements pour de nombreux problèmes. Nous étudions la notion de distance à la singularité dans le cas de polynômes d'une variable réelle ou complexe, ainsi que son lien avec le conditionnement. Nous montrons l'importance de cette notion pour la compréhension du comportement d'algorithmes de recherche de racines de polynômes en précision finie. Conditionnement et erreur inverse sont au cœur de l'étude approfondie que nous consacrons à deux méthodes numériques : les itérations successives pour la résolution de systèmes linéaires, et la méthode de Gauss-Newton pour la résolution de problèmes de moindres carrés non linéaires. Il apparaît que, même prouvé convergent en arithmétique exacte, un algorithme peut diverger lorsqu'il est employé en précision finie, et nous insistons sur la nécessité de disposer de condition de convergence robustes à la précision finie. De nombreux résultats développés dans cette thèse ont été obtenus dans le cadre d'une collaboration entre le CERFACS et le CNES centrée autour d'un problème de restitution d'orbite de satellite.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Brunin, Maxime. "Étude du compromis précision statistique-temps de calcul". Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I001/document.

Texto completo
Resumen
Dans le contexte actuel, il est nécessaire de concevoir des algorithmes capables de traiter des données volumineuses en un minimum de temps de calcul. Par exemple, la programmation dynamique appliquée au problème de détection de ruptures ne permet pas de traiter rapidement des données ayant une taille d'échantillon supérieure à $10^{6}$. Les algorithmes itératifs fournissent une famille ordonnée d'estimateurs indexée par le nombre d'itérations. Dans cette thèse, nous avons étudié statistiquement cette famille d'estimateurs afin de sélectionner un estimateur ayant de bonnes performances statistiques et peu coûteux en temps de calcul. Pour cela, nous avons suivi l'approche utilisant les règles d'arrêt pour proposer un tel estimateur dans le cadre du problème de détection de ruptures dans la distribution et le problème de régression linéaire. Il est d'usage de faire un grand nombre d'itérations pour calculer un estimateur usuel. Une règle d'arrêt est l'itération à laquelle nous stoppons l'algorithme afin de limiter le phénomène de surapprentissage dont souffre ces estimateurs usuels. En stoppant l'algorithme plus tôt, les règles d'arrêt permettent aussi d'économiser du temps de calcul. Lorsque le budget de temps est limité, il se peut que nous n'ayons pas le temps d'itérer jusqu'à la règle d'arrêt. Dans ce contexte, nous avons étudié le choix optimal du nombre d'itérations et de la taille d'échantillon pour atteindre une précision statistique optimale. Des simulations ont mis en évidence un compromis entre le nombre d'itérations et la taille d'échantillon pour atteindre une précision statistique optimale à budget de temps limité
In the current context, we need to develop algorithms which are able to treat voluminous data with a short computation time. For instance, the dynamic programming applied to the change-point detection problem in the distribution can not treat quickly data with a sample size greater than $10^{6}$. The iterative algorithms provide an ordered family of estimators indexed by the number of iterations. In this thesis, we have studied statistically this family of estimators in oder to select one of them with good statistics performance and a low computation cost. To this end, we have followed the approach using the stopping rules to suggest an estimator within the framework of the change-point detection problem in the distribution and the linear regression problem. We use to do a lot of iterations to compute an usual estimator. A stopping rule is the iteration to which we stop the algorithm in oder to limit overfitting whose some usual estimators suffer from. By stopping the algorithm earlier, the stopping rules enable also to save computation time. Under time constraint, we may have no time to iterate until the stopping rule. In this context, we have studied the optimal choice of the number of iterations and the sample size to reach an optimal accuracy. Simulations highlight the trade-off between the number of iterations and the sample size in order to reach an optimal accuracy under time constraint
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Vaccon, Tristan. "Précision p-adique". Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S032/document.

Texto completo
Resumen
Les nombres p-adiques sont un analogue des nombres réels plus proche de l’arithmétique. L’avènement ces dernières décennies de la géométrie arithmétique a engendré la création de nombreux algorithmes utilisant ces nombres. Ces derniers ne peuvent être de manière générale manipulés qu’à précision finie. Nous proposons une méthode, dite de précision différentielle, pour étudier ces problèmes de précision. Elle permet de se ramener à un problème au premier ordre. Nous nous intéressons aussi à la question de savoir quelles bases de Gröbner peuvent être calculées sur les p-adiques
P-Adic numbers are a field in arithmetic analoguous to the real numbers. The advent during the last few decades of arithmetic geometry has yielded many algorithms using those numbers. Such numbers can only by handled with finite precision. We design a method, that we call differential precision, to study the behaviour of the precision in a p-adic context. It reduces the study to a first-order problem. We also study the question of which Gröbner bases can be computed over a p-adic number field
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Braconnier, Thierry. "Sur le calcul des valeurs propres en précision finie". Nancy 1, 1994. http://www.theses.fr/1994NAN10023.

Texto completo
Resumen
Nous avons développé un code de calcul de valeurs propres pour matrices non symétriques de grande taille utilisant la méthode d'Arnoldi-Tchebycheff. Une étude a été menée pour mettre en évidence le rôle du défaut de normalité sur l'instabilité spectrale et la stabilité numérique d'algorithmes de calcul de valeurs propres. Des outils, tels que les méthodes de perturbations associées à des méthodes statistiques, ont été expérimentés afin d'apporter des informations qualitatives sur le spectre étudié. Ces outils permettent de comprendre le comportement numérique du problème traite en précision finie, dans les cas ou le calcul direct échoue
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Reymond, Hugo. "Modèle d'exécution conscient de l'énergie pour les systèmes intermittents". Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. https://ged.univ-rennes1.fr/nuxeo/site/esupversions/3c8fed27-1fb5-4f22-9b91-9d9ac508082d.

Texto completo
Resumen
Les capteurs sans batterie exploitent l'énergie ambiante pour fonctionner dans des lieux isolés, où le remplacement des batteries est impossible. L'énergie récoltée, stockée dans un condensateur, est insuffisante pour une exécution continue, entraînant des pertes d'alimentation qui effacent les données volatiles (registres processeur et mémoire vive), empêchant la progression des programmes. Pour répondre à ce défi, nous présentons SCHEMATIC, une technique qui insère automatiquement des points de sauvegarde dans le code. Lorsqu'un de ces derniers est atteint, l'état du programme est sauvegardé dans une mémoire non volatile. Pour diminuer la taille des sauvegardes SCHEMATIC alloue certaines données en mémoire non volatile, de manière automatique. Ensuite, contrairement aux méthodes existantes qui reprennent l'exécution une fois le condensateur plein, nous proposons EarlyBird, qui ajuste le réveil pour reprendre l'exécution dès que suffisamment d'énergie a été récoltée pour atteindre le prochain point de sauvegarde. De cette manière, EarlyBird permet une reprise plus rapide de l'exécution et une réduction de la consommation d'énergie. À travers ces travaux, nous démontrons que les approches conscientes de l'énergie permettent une exécution sûre et efficace des programmes sur capteurs sans batterie
Battery-less sensors harness ambient energy to operate in isolated locations where replacing batteries is impossible. The harvested energy, stored in a capacitor, is insufficient for continuous operation, leading to power losses that wipe volatile data (processor registers and RAM), thereby preventing program progression. In this thesis we present SCHEMATIC, a technique that automatically inserts checkpoints into the code. When a checkpoint is reached, the program state is saved in non-volatile memory. To reduce checkpoint size, SCHEMATIC automatically allocates certain data to non-volatile memory. Then, unlike existing methods that resume execution only once the capacitor is fully charged, we propose EarlyBird, which adjusts the wake-up threshold to resume execution as soon as enough energy has been harvested to reach the next checkpoint. This approach, allows for quicker execution resumption and reduced energy consumption. Through this work, we demonstrate that energy-aware approaches enable safe and efficient execution of programs on battery-less sensors
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Pirus, Denise. "Imprécisions numériques : méthode d'estimation et de contrôle de la précision en C.A.O". Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Pirus.Denise.SMZ9703.pdf.

Texto completo
Resumen
L'objectif de ce mémoire est d'apporter une solution aux problèmes numériques causes par l'emploi de l'arithmétique flottante. Le premier chapitre aborde les problèmes que l'arithmétique en virgule flottante provoque, en particulier dans le cadre de la C. A. O. Nous nous intéressons également aux différentes méthodes et outils existants pour résoudre ces problèmes. Le second chapitre est consacré à l'étude de la propagation des erreurs au cours des algorithmes, principalement l'algorithme correspondant à la détermination de l'intersection de deux droites. L'utilisation de l'analyse différentielle n'est pas suffisante pour obtenir une bonne approximation des erreurs affectant les résultats de calcul. Nous déterminons alors une estimation de la perte de précision au cours du calcul du point d'intersection de deux droites, en fonction de l'angle qu'elles forment, à l'aide de l'arithmétique d'intervalle. Le troisième chapitre présente la méthode cestac (contrôle stochastique des arrondis de calculs) vig 93 qui permet d'estimer le nombre de chiffres significatifs affectant le résultat d'un calcul numérique. Le quatrième chapitre traite du calcul formel, de l'arithmétique rationnelle et de l'utilisation du logiciel pari pour éviter les problèmes causes par l'utilisation de grands entiers. Le cinquième chapitre décrit notre méthodologie qui consiste à déterminer la précision d'un calcul a l'aide de la méthode cestac et qui, si la précision n'est pas suffisante, utilise l'arithmétique rationnelle. Nous modifions aussi les instructions conditionnelles, afin que les tests soient effectués en fonction de la précision des données
The object of this thesis is to bring a solution of numerical problems caused by the use of floating point arithmetic. The first chapter tackles the problems which are induced by the floating point arithmetic. One also develop the different existing methods and tools to solve these problems. The second chapter is devoted to the study of the spreader of errors during algorithms. Differential analysis is not adequate to obtain a good approximation of errors affecting the results of calculation. We next determine an estimation of the loss of precision during the calculation of the intersection point of two lines, according to the angle they draw up. The third chapter presents the method CESTAC (Stochastic checking of rounding of calculaation) [vig 93] which allows to estimate the number of significant digits affecting the result of a numerical calculation. The fourth chapter deals with computer algebra, as with the rational arithmetic and specially with the utilization of software Pari in order to avoid the problems caused by large integers. The fifth chapter describes our methodology which consists to determine the precision of a calculation with the assistance of the method CESTAC and which, if the precision isn't sufficient, uses the rational arithmetic. We also amend the conditional instructions, so that the tests be executed according to the precision of each data
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Nguyen, Hai-Nam. "Optimisation de la précision de calcul pour la réduction d'énergie des systèmes embarqués". Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00705141.

Texto completo
Resumen
Cette thèse s'inscrit dans le contexte de la forte augmentation du débit et de la puissance de calcul des systèmes de télécommunications. Cette augmentation entraîne une consommation d'énergie importante et réduit la durée de batterie, ce qui est primordiale pour un système embarqué. Nous proposons des mécanismes permettant de réduire la consommation d'énergie dans un système embarqué, plus particulièrement dans un terminal mobile sans fil. L'implantation efficace des algorithmes de traitement numérique du signal dans les systèmes embarqués requiert l'utilisation de l'arithmétique virgule fixe afin de satisfaire des contraintes de coût, de consommation et d'encombrement. Dans les approches classiques, la largeur des données et des calculs est considérée au pire cas lors de la détermination des spécifications afin qu'elles soient satisfaites dans tout les cas. Nous proposons une approche d'adaptation dynamique, permettant de changer la spécification en fonction de l'environnement (par exemple les conditions d'un canal de transmission) avec pour objectif de réduire la consommation d'énergie dans certaines conditions. Tout d'abord, la relation entre la puissance de bruit de quantification et le taux d'erreur binaire du système en fonction du bruit au récepteur est établie pour une chaîne de transmission QPSK. Ce résultat est appliqué dans la technique d'accès multiple par répartition de codes en séquence directe (DS-CDMA). Parmi plusieurs systèmes de télécommunications utilisant la technique DS-CDMA, nous montrons comment adapter dynamiquement la précision de calcul d'un récepteur 3G WCDMA. La conversion en virgule fixe nécessite un algorithme d'optimisation combinatoire pour l'optimisation des largeurs des opérateurs sous une contrainte de précision. La deuxième axe de ces travaux de thèse concerne l'étude d'algorithmes d'optimisation adaptés au problème de l'optimisation des largeurs de données. Nous proposons de nouveaux algorithmes pour les problèmes à une seule contrainte ou à une suite des contraintes correspondant à différents niveaux de précision pour les systèmes auto-adaptatifs. Le résultat des algorithmes génétiques multi-objectifs, sous forme d'une frontière de Pareto, permet d'obtenir la largeur correspondant à chaque niveau du bruit de quantification. Une version améliorée des algorithmes génétiques combinée avec l'élitisme et la recherche tabou est proposée. En plus, nous proposons d'appliquer GRASP, un algorithme de recherche locale stochastique permettant de trouver le résultat dans un temps plus faible en comparaison avec les algorithmes génétiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Boucher, Mathieu. "Limites et précision d'une analyse mécanique de la performance sur ergocycle instrumenté". Poitiers, 2005. http://www.theses.fr/2005POIT2260.

Texto completo
Resumen
En biomécanique, la modélisation du corps humain constitue un enjeu majeur dans l'estimation, lors d'une tâche imposée, des efforts musculaires et de la dépense métabolique sous-jacente. En parallèle, l'évaluation des qualités physiques réalisée en médecine du sport a besoin d'une caractérisation du mouvement des athlètes et de leurs interactions avec l'environnement extérieur, afin de comparer objectivement les mesures physiologiques. Le pédalage dans ces deux approches fait référence. L'objectif de ce travail est donc d'étudier les limites de l'analyse mécanique de la performance sur ergocycle reposant sur la dynamique inverse, limites inhérentes aux outils de mesure et à l'adéquation entre les données d'entrée de la modélisation du geste de pédalage et les données mesurées. L'évaluation de l'incertitude des grandeurs initiant le calcul des efforts articulaires permet d'en estimer les conséquences sur la précision de chaque paramètre mécanique utilisé dans l'analyse de la performance
In biomechanics, the modelling of the human body is a major stake to estimate, in an imposed task, muscular effort and subjacent metabolic expenditure. In parallel, the evaluation of physical abilities in sport medicine needs to characterize the athletes' motion and their interactions with the external environment, in order to compare physiological measurements more objectively. These two orientations are based mainly on the activities of cycling. The objective of this work is thus to study the limits of the mechanical analysis of the performance on ergocycle using inverse dynamics technique. These limits depend on the measuring instruments and on the adequacy between the data input of the cycling model and the data measured. The evaluations of the uncertainty of the quantities used in the calculation of the intersegment effort allow to estimate the consequences of them on the precision of each mechanical parameter used in the analysis of the performance
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Khali, Hakim. "Algorithmes et architectures de calcul spécialisés pour un système optique autosynchronisé à précision accrue". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0019/NQ53535.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía