Littérature scientifique sur le sujet « Arbitrary precision »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Arbitrary precision ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Arbitrary precision"

1

D'Ariano, Giacomo M., et Matteo G. A. Paris. « Arbitrary precision in multipath interferometry ». Physical Review A 55, no 3 (1 mars 1997) : 2267–71. http://dx.doi.org/10.1103/physreva.55.2267.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

RODRIGUES, B. O., L. A. C. P. DA MOTA et L. G. S. DUARTE. « NUMERICAL CALCULATION WITH ARBITRARY PRECISION ». International Journal of Modern Physics E 16, no 09 (octobre 2007) : 3045–48. http://dx.doi.org/10.1142/s0218301307009014.

Texte intégral
Résumé :
The vast use of computers on scientific numerical computation makes the awareness of the limited precision that these machines are able to provide us an essential matter. A limited and insufficient precision allied to the truncation and rounding errors may induce the user to incorrect interpretation of his or her answer. In this work, we have developed a computational package to minimize this kind of error by offering arbitrary precision numbers and calculation. This is very important in Physics where we can work with numbers too small and too big simultaneously.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Brisebarre, Nicolas, et Jean-Michel Muller. « Correctly Rounded Multiplication by Arbitrary Precision Constants ». IEEE Transactions on Computers 57, no 2 (février 2008) : 165–74. http://dx.doi.org/10.1109/tc.2007.70813.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Ghazi, Kaveh R., Vincent Lefevre, Philippe Theveny et Paul Zimmermann. « Why and How to Use Arbitrary Precision ». Computing in Science & ; Engineering 12, no 3 (mai 2010) : 5. http://dx.doi.org/10.1109/mcse.2010.73.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Lefevre, Vincent. « Correctly Rounded Arbitrary-Precision Floating-Point Summation ». IEEE Transactions on Computers 66, no 12 (1 décembre 2017) : 2111–24. http://dx.doi.org/10.1109/tc.2017.2690632.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Graça, D. S., C. Rojas et N. Zhong. « Computing geometric Lorenz attractors with arbitrary precision ». Transactions of the American Mathematical Society 370, no 4 (31 octobre 2017) : 2955–70. http://dx.doi.org/10.1090/tran/7228.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Ménissier-Morain, Valérie. « Arbitrary precision real arithmetic : design and algorithms ». Journal of Logic and Algebraic Programming 64, no 1 (juillet 2005) : 13–39. http://dx.doi.org/10.1016/j.jlap.2004.07.003.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

El-Araby, Esam, Ivan Gonzalez, Sergio Lopez-Buedo et Tarek El-Ghazawi. « A Convolve-And-MErge Approach for Exact Computations on High-Performance Reconfigurable Computers ». International Journal of Reconfigurable Computing 2012 (2012) : 1–14. http://dx.doi.org/10.1155/2012/925864.

Texte intégral
Résumé :
This work presents an approach for accelerating arbitrary-precision arithmetic on high-performance reconfigurable computers (HPRCs). Although faster and smaller, fixed-precision arithmetic has inherent rounding and overflow problems that can cause errors in scientific or engineering applications. This recurring phenomenon is usually referred to as numerical nonrobustness. Therefore, there is an increasing interest in the paradigm of exact computation, based on arbitrary-precision arithmetic. There are a number of libraries and/or languages supporting this paradigm, for example, the GNU multiprecision (GMP) library. However, the performance of computations is significantly reduced in comparison to that of fixed-precision arithmetic. In order to reduce this performance gap, this paper investigates the acceleration of arbitrary-precision arithmetic on HPRCs. A Convolve-And-MErge approach is proposed, that implements virtual convolution schedules derived from the formal representation of the arbitrary-precision multiplication problem. Additionally, dynamic (nonlinear) pipeline techniques are also exploited in order to achieve speedups ranging from 5x (addition) to 9x (multiplication), while keeping resource usage of the reconfigurable device low, ranging from 11% to 19%.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Lee, JunKyu, Gregory D. Peterson, Dimitrios S. Nikolopoulos et Hans Vandierendonck. « AIR : Iterative refinement acceleration using arbitrary dynamic precision ». Parallel Computing 97 (septembre 2020) : 102663. http://dx.doi.org/10.1016/j.parco.2020.102663.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Johansson, Fredrik. « Arb : Efficient Arbitrary-Precision Midpoint-Radius Interval Arithmetic ». IEEE Transactions on Computers 66, no 8 (1 août 2017) : 1281–92. http://dx.doi.org/10.1109/tc.2017.2690633.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Arbitrary precision"

1

Rieu, Raphaël. « Development and verification of arbitrary-precision integer arithmetic libraries ». Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG023.

Texte intégral
Résumé :
Les algorithmes d'arithmétique entière en précision arbitraire sont utilisés dans des contextes où leur correction et leurs performances sont critiques, comme les logiciels de cryptographie ou de calcul formel. GMP est une bibliothèque d'arithmétique entière en précision arbitraire très utilisée. Elle propose des algorithmes de pointe, suffisamment complexes pour qu'il soit à la fois justifié et difficile de les vérifier formellement. Cette thèse traite de la vérification formelle de la correction fonctionnelle d'une partie significative de GMP à l'aide de la plateforme de vérification déductive Why3.Afin de rendre cette preuve possible, j'ai fait plusieurs ajouts à Why3 qui permettent la vérification de programmes C. Why3 propose un langage fonctionnel de programmation et de spécification appelé WhyML. J'ai développé des modèles de la gestion de la mémoire et des types du langage C. Ceci m'a permis de réimplanter des algorithmes de GMP en WhyML et de les vérifier formellement. J'ai aussi étendu le mécanisme d'extraction de Why3. Les programmes WhyML peuvent maintenant être compilés vers du C idiomatique, alors que le seul langage cible était OCaml auparavant. La compilation de mes programmes WhyML résulte en une bibliothèque C vérifiée appelée WhyMP. Elle implémente de nombreux algorithmes de pointe tirés de GMP en préservant presque toutes les astuces d'implémentation. WhyMP est compatible avec GMP, et est comparable à la version de GMP sans assembleur écrit à la main en termes de performances. Elle va bien au-delà des bibliothèques d'arithmétique en précision arbitraire vérifiées existantes. C'est sans doute le développement Why3 le plus ambitieux à ce jour en termes de longueur et d'effort de preuve. Afin d'augmenter le degré d'automatisation de mes preuves, j'ai ajouté à Why3 un mécanisme de preuves par réflexion. Il permet aux utilisateurs de Why3 d'écrire des procédures de décision dédiées, formellement vérifiées et qui utilisent pleinement les fonctionnalités impératives de WhyML. À l'aide de ce mécanisme, j'ai pu remplacer des centaines d'annotations manuelles de ma preuve de GMP par des preuves automatiques
Arbitrary-precision integer arithmetic algorithms are used in contexts where both their performance and their correctness are critical, such as cryptographic software or computer algebra systems. GMP is a very widely-used arbitrary-precision integer arithmetic library. It features state-of-the-art algorithms that are intricate enough that their formal verification is both justified and difficult. This thesis tackles the formal verification of the functional correctness of a large fragment of GMP using the Why3 deductive verification platform.In order to make this verification possible, I have made several additions to Why3 that enable the verification of C programs. Why3 features a functional programming and specification language called WhyML. I have developed models of the memory management and datatypes of the C language, allowing me to reimplement GMP's algorithms in WhyML and formally verify them. I have also extended Why3's extraction mechanism so that WhyML programs can be compiled to idiomatic C code, where only OCaml used to be supported.The compilation of my WhyML algorithms results in a verified C library called WhyMP. It implements many state-of-the-art algorithms from GMP, with almost all of the optimization tricks preserved. WhyMP is compatible with GMP and performance-competitive with the assembly-free version. It goes far beyond existing verified arbitrary-precision arithmetic libraries, and is arguably the most ambitious existing Why3 development in terms of size and proof effort.In an attempt to increase the degree of automation of my proofs, I have also added to Why3 a framework for proofs by reflection. It enables Why3 users to easily write dedicated decision procedures that are formally verified programs and make full use of WhyML's imperative features. Using this new framework, I was able to replace hundreds of handwritten proof annotations in my GMP verification by automated proofs
Styles APA, Harvard, Vancouver, ISO, etc.
2

Kalathungal, Akhil M. S. « An Arbitrary Precision Integer Arithmetic Library for FPGA s ». University of Cincinnati / OhioLINK, 2013. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1383812278.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Poulos, Konstantinos. « NEW TECHNIQUES ON VLSI CIRCUIT TESTING & ; EFFICIENT IMPLEMENTATIONS OF ARITHMETIC OPERATIONS ». OpenSIUC, 2020. https://opensiuc.lib.siu.edu/dissertations/1872.

Texte intégral
Résumé :
Testing is necessary factor to guarantee that ICs operate according to specifications before being delivered to customers. Testing is a process used to identify ICs containing imperfections or manufacturing defects that may cause failures. Inaccuracy and imperfections can be introduced during the fabrication of the chips due to the complex mechanical and chemical steps required during the manufacturing processes. The testing process step applies test patterns to circuits and analyzes their responses. This work focuses on VLSI circuit testing with two implementations for DFT (Design for testability); the first is an ATPG tool for sequential circuits and the second is a BIT (Built in Test) circuit for high frequency signal classification.There has been a massive increase in the number of transistors integrated in a chip, and the complexity of the circuit is increasing along with it. This growth has become a bottleneck for the test developers. The proposed ATPG tool was designed for testing sequential circuits. Scan Chains in Design For Testability (DFT) gained more prominence due to the increase in the complexity of the modern circuits. As the test time increases along with the number of memory elements in the circuit, new and improved methods are needed. Even though scan chains implementation effectively increases observability and controllability, a big portion of the time is wasted while shifting in and shifting out the test patterns through the scan chain. Additionally, the modern applications require operating speed at higher frequencies and there is a growing demand in testing equipment capable to test CMOS circuits utilized in high frequency applications.With the modern applications requiring operating speed at higher frequencies, there is a growing demand in testing equipment capable to test CMOS circuits utilized in high frequency applications. Two main problems have been associated when using external test equipment to test high frequency circuits; the effect of the resistance and capacitance of the probe on the performance of the circuit under test which leads to a faulty evaluation; and the cost of a dedicated high frequency tester. To solve these problems innovative test techniques are needed such as Built In Test (BIT) where self-evaluation takes place with a small area overhead and reduced requirements for external equipment. In the proposed methodology a Built In Test (BIT) detection circuit provides an efficient way to transform the high frequency response of the circuit under test into a DC signal.This work is focused in two major fields. The first topic is on VLSI circuit testing with two implementations for DFT (Design for testability); the first is an ATPG tool for sequential circuits and the second is a BIT (Built in Test) circuit for high frequency signal classification as explained. The second topic is focused on efficient implementations of arithmetic operations in arbitrary long numbers with emphasis to addition. Arbitrary-Precision arithmetic refers to a set of data structures and algorithms which allows to process much greater numbers that exceed the standard data types. . An application example where arbitrary long numbers are widely used is cryptography, because longer numbers offer higher encryption security. Modern systems typically employ up to 64-bit registers, way less than what an arbitrary number requires, while conventional algorithms do not exploit hardware characteristics as well. Mathematical models such as weather prediction and experimental mathematics require high precision calculations that exceed the precision found in most Arithmetic Logic Units (ALU). In this work, we propose a new scalable algorithm to add arbitrary long numbers. The algorithm performs bitwise logic operations rather than arithmetic on 64-bit registers. We propose two approaches of the same algorithm that utilize the same basic function created according to the rules of binary addition
Styles APA, Harvard, Vancouver, ISO, etc.
4

Zivcovich, Franco. « Backward error accurate methods for computing the matrix exponential and its action ». Doctoral thesis, Università degli studi di Trento, 2020. http://hdl.handle.net/11572/250078.

Texte intégral
Résumé :
The theory of partial differential equations constitutes today one of the most important topics of scientific understanding. A standard approach for solving a time-dependent partial differential equation consists in discretizing the spatial variables by finite differences or finite elements. This results in a huge system of (stiff) ordinary differential equations that has to be integrated in time. Exponential integrators constitute an interesting class of numerical methods for the time integration of stiff systems of differential equations. Their efficient implementation heavily relies on the fast computation of the action of certain matrix functions; among those, the matrix exponential is the most prominent one. In this manuscript, we go through the steps that led to the development of backward error accurate routines for computing the action of the matrix exponential.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Kluknavský, František. « Vliv přesnosti aritmetických operací na přesnost numerických metod ». Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2012. http://www.nusl.cz/ntk/nusl-236465.

Texte intégral
Résumé :
Thesis is dedicated to evaluation of roundoff impact on numerical integration methods accuracy and effectivity. Contains theoretical expectations taken from existing literature, implementation of chosen methods, experimental measurement of attained accuracy under different circumstances and their comparison with regard to time complexity. Library contains Runge-Kutta methods to order 7 and Adams-Bashforth methods to order 20 implemented using C++ templates which allow optional arbitrary-precision arithmetic. Small models with known analytic solution were used for experiments.
Styles APA, Harvard, Vancouver, ISO, etc.
6

MENISSIER-MORAIN, MENISSIER VALERIE. « Arithmetique exacte : conception, algorithmique et performances d'une implementation informatique en precision arbitraire ». Paris 7, 1994. http://www.theses.fr/1994PA077271.

Texte intégral
Résumé :
Nous montrons dans cette these la necessite d'avoir une arithmetique sure, c'est-a-dire une arithmetique rationnelle exacte et une arithmetique reelle en precision arbitraire. Nous decrivons tout d'abord l'implementation en caml d'une arithmetique rationnelle exacte et efficace. Nous discutons les problemes de normalisation des nombres rationnels et de l'integration a un langage fortement type. Nous presentons quelques exemples d'utilisation spectaculaires ainsi qu'une comparaison avec les principaux langages dotes d'une arithmetique entiere exacte. Nous abordons ensuite l'arithmetique reelle en presentant une theorie axiomatique des nombres reels calculables. Dans ce cadre, nous donnons trois descriptions algorithmiques differentes d'arithmetique reelle. Nous representons tout d'abord un nombre reel par une suite de nombres rationnels avec des denominateurs de la forme d'une puissance de la base de travail et nous obtenons une description constructive complete et entierement prouvee. La deuxieme approche represente les nombres reels par la suite infinie des chiffres du developpement de ce nombre dans une base de travail et nous donnons une description constructive et entierement prouvee des operations rationnelles sur cette representation. La troisieme representation decrit les nombres reels par leur developpement en fractions continues. Nous montrons deux algorithmes de transformation d'un type classique de fractions continues en un autre et nous decrivons les algorithmes pour les operations usuelles. La premiere et la troisieme representations ont fait l'objet d'un prototype en caml et nous comparons ces differentes representations des nombres reels calculables
Styles APA, Harvard, Vancouver, ISO, etc.
7

Fernández, Oliva Alberto. « Estimación probabilística del grado de excepcionalidad de un elemento arbitrario en un conjunto finito de datos : aplicación de la teoría de conjuntos aproximados de precisión variable ». Doctoral thesis, Universidad de Alicante, 2010. http://hdl.handle.net/10045/17570.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Arend, Andréia Propp. « A análise econômico-jurídica da arbitragem expedita ». Universidade do Vale do Rio dos Sinos, 2018. http://www.repositorio.jesuita.org.br/handle/UNISINOS/7343.

Texte intégral
Résumé :
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-10-10T13:20:24Z No. of bitstreams: 1 Andréia Propp Arend_.pdf: 92656160 bytes, checksum: 0a3472ee7d2ccce4b7d2da9e4de30f96 (MD5)
Made available in DSpace on 2018-10-10T13:20:24Z (GMT). No. of bitstreams: 1 Andréia Propp Arend_.pdf: 92656160 bytes, checksum: 0a3472ee7d2ccce4b7d2da9e4de30f96 (MD5) Previous issue date: 2018-06-22
Nenhuma
A arbitragem expedita é método adequado e privado de solução de conflitos, com origem internacional e progressivamente adotado no Brasil por força de permissão legislativa e regulamentar, para dirimir questões de baixa complexidade e baixos valores envolvidos. O presente estudo visa a analisar a arbitragem expedita a partir da ótica da Análise Econômica do Direito, como ferramenta para verificação dos custos de transação e de oportunidade na escolha do procedimento a adotar. Para tanto, utilizou-se pesquisa bibliográfica, levantamento de dados e análise legislativa e regulamentar. A pesquisa contribui na identificação do procedimento como modalidade de acesso das empresas à arbitragem mediante excelente relação de custo-benefício, a depender da quantidade e qualidade das informações a que as partes se dispuserem a apresentar entre si e ao julgador em um curto espaço de tempo. Como resultado, conclui-se que pela Análise Econômico-Jurídica da Arbitragem Expedita é possível demonstrar que o procedimento expedito se apresenta como ótimo redutor de custos de transação e de oportunidade, trazendo vantagens às partes que necessitam de um julgamento especializado célere, nas causas de baixa complexidade, não sendo indicado adotá-lo nos contratos multipartes.
Expedited arbitration is an appropriate and private method of conflict resolution, with international origin and progressively adopted in Brazil by virtue of legislative and regulatory permission, to resolve issues of low complexity and low values involved. This study aims to analyze expedited arbitrage from the perspective of the Law & Economics, as a tool to verify transaction and opportunity costs in choosing the procedure to adopt. For this purpose, bibliographic research, data collection and legislative and regulatory analysis were used. The research contributes to the identification of the procedure as a way of accessing companies to arbitration through an excellent cost-benefit relationship, depending on the quantity and quality of the information that the parties are willing to present to each other and to the judge in a short time. As a result, it can be concluded that the Economic-Legal Analysis of Expedited Arbitration can demonstrate that the expedited procedure presents itself as an optimal transaction and opportunity cost reducer, bringing advantages to parties who need a speedy specialized judgment in the causes of low complexity, and it is not recommended to adopt it in multiparty contracts.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Chen, Chi-Hsiang, et 陳濟祥. « A high precision fast locking arbitrary duty cycle clock synchronization circuit ». Thesis, 2008. http://ndltd.ncl.edu.tw/handle/08931567795547981001.

Texte intégral
Résumé :
碩士
國立中央大學
電機工程研究所
97
Clock synchronization plays a important role in designing VLSI circuit. Phase-Locked loop (PLL) and delay-locked loop (DLL) are often applied in many synchronization-dependent systems in order to suppress the clock skew. However, these circuits have to consider some problems in using. First, PLL and DLL have issues of bandwidth because they are both closed loop systems. For this reason, they need to consider the stability of circuits. Second, they consume a lot of power in the process of locking. Consequently, the synchronous mirror delay circuit (SMD) was developed to improve the drawbacks. However, there are some drawbacks in conventional SMD. First, the phase error will increase because of the output loading. Next, the duty cycle of input signal is limited. Finally, the poor resolution is due to the delay cell. These shortcomings will limit the application of the SMD. A high precision fast locking arbitrary duty cycle clock synchronization circuit is proposed in the thesis, which not only keeps the advantage of SMD but the phase error between the input signal and output signal is less than 29 ps (simulated). And the tuning range of input signal’s duty cycle is 25% ~75%. Furthermore, the static phase error will not increase as the output loading changes. The test chip is fabricated in a 0.13-μm CMOS process and the supply voltage is 1.2V. It consumes 2.4mW when the operating frequency is 600MHz. The active area (without I/O PAD) is 0.039 mm2 , and the peak-to-peak jitter is 25.2 ps. There will be experimental results in latter half component of the thesis, which confirms the proposed circuit has improved certainly the drawbacks of SMD.
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Arbitrary precision"

1

Potter, Ronald W. Arbitrary Precision Calculation of Selected Higher Functions. Lulu Press, Inc., 2014.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Dynamics of Number Systems : Computation with Arbitrary Precision. Springer, 2016.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Kurka, Petr. Dynamics of Number Systems : Computation with Arbitrary Precision. Springer London, Limited, 2016.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Hernández, Carlos. Positivismo inclusivo. Universidad Libre sede principal, 2017. http://dx.doi.org/10.18041/978-958-8981-73-4.

Texte intégral
Résumé :
Este libro contiene artículos de destacados profesores, los cuales reflexionan sobre temas de amplia repercusión en la teoría jurídica contemporánea. En el artículo Modest Objectivity e Interpretación Jurídica Aldo Schiavello analiza el trabajo de Jules Coleman y Brian Leiter sobre su propuesta de objetividad (denominada modest objectivity) y que aspira a superar el carácter indeterminable de las decisiones judiciales. Para Schiavello esta propuesta es insatisfactoria, pues debemos tener en cuenta que la noción filosófica de objetividad se relaciona con un determinado paradigma filosófico y epistemológico y en esa medida condicionan la estructura mental del sujeto. Schiavello nos recuerda que podemos distinguir entre varias nociones de objetividad. La clásica división entre objetividad fuerte y objetividad débil. La objetividad es fuerte cuando es independiente del mundo interior y es débil cuando es compartido por una comunidad lingüística. Pero interesante clasificación es la realizada por Andrei Marmor, quien diferencia entre objetividad semántica, objetividad metafísica y objetividad lógica. Según Marmor un enunciado es objetivo semánticamente si gira en torno a un objetivo y es subjetivo si afecta el estado mental de quien lo produce. Es decir, saber si un discurso es objetivo o subjetivo es la intención lingüística del hablante, además, esta dicotomía se caracteriza porque no tiene una relación con la verdad A diferencia de la objetividad semántica, la objetividad metafísica está muy estrechamente relacionada a la noción de verdad. Un enunciado es objetivo metafísicamente si existe una correspondencia entre un enunciado y el objeto en el mundo que describe con las propiedades correspondientes a su descripción en el enunciado en cuestión. Marmor afirma que entre la objetividad metafísica y realismo metafísico no existe una relación necesaria. Por un lado, el realismo moral afirma que es posible predicar la verdad o la falsedad de enunciados que contienen valoraciones morales, estos enunciados son verdaderos o falsos sin tomar en cuenta nuestras opiniones y que los estándares del razonamiento moral son un método adecuado para incrementar el conocimiento moral. Por último, la objetividad lógica implica la verdad, pero no implica determinabilidad. No es sencillo diferenciar entre objetividad lógica y objetividad metafísica, pues se puede afirmar que la objetiva metafísica implica objetiva lógica, pero no se puede afirmar lo mismo a la inversa. En tal sentido, la relación entre objetividad y conceptos como realismo, verdad y determinabilidad, cambia según el concepto de objetividad asumido. Para Schiavello, el concepto de objetividad propuesto por Coleman y Leiter es una propuesta intermedia entre objetividad metafísica y objetividad lógica. Schiavello señala que en el campo jurídico, el problema de la objetividad se relaciona con la interpretación y aplicación normativa e implica un conjunto de presupuestos teóricos sobre la concepción del derecho y la interpretación jurídica, además de relacionarse, generalmente, con el ideal de la seguridad jurídica. Es en este aspecto en el cual la objetividad se vincula con aspectos políticos, es decir, con un modelo de organización política como el Estado liberal de Derecho en el cual la certeza tiene un papel importante y que además de las normas generales es importante tener certidumbre sobre la interpretación y aplicación que realizarán los jueces. Schiavello nos recuerda que el tema de la objetividad de la interpretación del derecho está vinculado al valor de la certeza y, por lo tanto, los discursos sobre la objetividad plantean no solo cuestiones filosóficas sino también tiene repercusiones y relaciones políticas que se deben considerar. Como afirma el autor “una concepción de la objetividad de la interpretación del derecho presupone, implícita o explícitamente, una concepción de la identificación del derecho; las teorías de la identificación del derecho que excluyen la referencia a valores morales por los criterios de validez permiten identificar el derecho de manera más precisa que otras; quien, como Coleman o Dworkin, defiende la objetividad de la interpretación a partir de una concepción de la identificación del derecho que no excluye la referencia a valores morales por los criterios de validez, debe tomar en serio los problemas que ello conlleva”. Coleman y Leiter aspiran a construir una concepción liberal del derecho de las críticas formuladas por el Critical Legal Studies Movement. Ambos autores señalan que el error del Critical Legal Studies Movement es que la intrínseca indeterminación del derecho es incompatible con una concepción liberal del mismo. Recordemos que en el esquema de organización política de un Estado, uno de los postulados del liberalismo es un poder legislativo elegido democráticamente y las leyes aprobadas son aplicadas por el poder judicial, por ello, las decisiones judiciales deben ser determinadas. En tal sentido, las razones más importantes para decidir una disputa legal las proporcionan los legisladores. Si estas razones no motivan las decisiones de los jueces, entonces es dudoso afirmar la existencia de reglas democráticas en el Estado. Las objeciones que se han dirigido a la propuesta de reconstrucción de la determinabilidad en el derecho formulada por Coleman y Leiter son dos. La primera objeción está vinculada a la imposibilidad de distinguir con precisión los casos fáciles de los casos difíciles y la segunda se refiere al problema de la llamada indeterminación de segundo nivel. Según ambos autores el problema de la objetividad se refiere al status de los hechos jurídicos y la autoridad del derecho está justificado solo si los hechos jurídicos son objetivos. Coleman y Leiter rechazan la objetividad en sentido fuerte, es decir, lo que parece correcto a alguien no puede determinar lo correcto para los demás, también rechaza la objetividad mínima según la cual lo que parece correcto a la mayor parte de los miembros de una comunidad determina lo que es efectivamente correcto. Ambos autores están a favor de un “objetividad modesta” según la cual lo correcto es lo afirmado por sujetos en “condiciones epistémicas ideales”. Schiavello piensa que la alternativa propuesta por Coleman y Leiter no logra escapar de la objetividad en sentido fuerte y la objetividad mínima; y por el contrario, considera que su propuesta de objetividad puede ser entendida como una versión de la objetividad metafísica o de la objetividad mínima. Por ello, las críticas que Coleman y Leiter dirigen a estas dos concepciones de la objetividad se vuelcan en contra de su propuesta de objetividad modesta. Según la objetividad modesta es efectivamente correcto lo que parece a aquellos que se encuentran en “condiciones epistémicas ideales”. Estas condiciones pueden ser definidas como las mejores condiciones para alcanzar un conocimiento fiable de algo. En consecuencia, la objetividad modesta admite la posibilidad de errores, pero, a diferencia de la objetividad en sentido fuerte, esta incapacidad se debe a no poder plantearse la mejor perspectiva de observación. Coleman y Leiter no aspiran a desarrollar una concepción universal de la objetividad, sino solo una concepción de la objetividad que permita explicar en forma más conveniente la práctica interpretativa en el derecho. concepción de la objetividad sino que aspira a resaltar la relación que existe entre este concepto y otros elementos conceptuales más amplios, como la política, por ejemplo. Además, el autor identifica las dificultades que pueden generarse al proponer una vía intermedia (como la “objetividad modesta”) entre la objetividad en sentido fuerte y la objetividad en sentido débil. Eso no implica afirmar que sea imposible construir esta vía intermedia, pero sí resalta la necesidad de tomar consciencia de las dificultades para una audaz y bien estructurada nueva concepción de la objetividad. El ensayo de Vittorio Villa se dirige a esclarecer los diferentes conceptos sobre positivismo jurídico, en particular el de inclusive legal positivism (positivismo jurídico inclusivo) pues entiende que esta versión del positivismo es la más defendible y prometedora de las versiones iuspositivistas. Por ello, Villa aporta aclaraciones conceptuales de carácter epistemológico, metodológico y meta-teórico con la finalidad de poder ofrecer una versión del mencionado positivismo más coherente y defendible respecto a lo que sus principales exponentes han hecho. Villa parte de esclarecer el concepto de positivismo jurídico y sus articulaciones en forma de concepciones, para ello el autor identifica el contenido conceptual mínimo compartido por todas las versiones del iuspositivismo. Asimismo, realiza un esclarecimiento mediante análisis comparativo entre el positivismo inclusivo y positivismo exclusivo consideradas como concepciones del concepto de positivismo jurídico. Así, para Villa el positivismo inclusivo es un programa de investigación más prometedor y fecundo que el positivismo exclusivo. Otra clarificación importante que realiza Villa es la postura que adopta el positivismo inclusivo y el positivismo exclusivo en relación a la tesis conceptual de separación entre derecho y moral, enfocándose en los argumentos con los cuales el positivismo inclusivo justifica la intromisión de contenidos morales en los procedimientos con que jueces y juristas garantizarán la existencia y el contenido de las normas jurídicas formando parte de los Estados de derecho constitucionales. Villa parte por definir el iuspositivismo y el contenido conceptual mínimo compartido por todas las concepciones que puedan calificarse como tales. Este contenido conceptual está formado por una tesis sobre el derecho y por ello en una preocupación ontológica y una tesis sobre el conocimiento del derecho y por ello en una preocupación metodológica. Según la primera tesis, afirma Villa, “todos los fenómenos (en primer lugar, las reglas) que llevan el nombre de “derecho” constituyen invariablemente instancias de derecho positivo, y por tanto de un derecho que representa el producto normativo (y aquí evidentemente la potencialmente evasiva propiedad de la normatividad está por especificar por parte de las diferentes concepciones), de tipo convencional (en un sentido por precisar ulteriormente), de decisiones y/o de comportamientos humanos históricamente contingentes desde el punto de vista cultural, y por lo tanto, más en particular, desde el punto de vista ético-político”. Según Villa el elemento más importante por resaltar en la contraposición entre el positivismo inclusivo y el positivismo exclusivo es el vinculado a la diferente interpretación que estas dos concepciones proporcionan de la tesis de la separación. El mismo Villa afirma que “de acuerdo al positivismo inclusivo los criterios de naturaleza moral pueden muy bien servir para verificar la existencia y el contenido de las normas de un sistema jurídico. Según el positivismo exclusivo los tests para identificar la existencia y el contenido de las normas jurídicas dependen exclusivamente de hechos del comportamiento susceptibles de ser descritos en términos neutrales, y de ser aplicados sin recurrir a argumentos morales”. El autor nos recuerda que para el positivismo inclusivo la conexión es una tesis que se desarrolla “dentro de las actividades de jueces y estudiosos del derecho que tengan que ver con normas, entre la actividad destinada a determinar la existencia (en el sentido de validez) y la de determinar el contenido”, entendiendo que no se trata, de una conexión necesaria entre derecho y moral sino a una conexión que se desarrolla en una determinado contexto institucional representado por los Estados de derecho constitucionales contemporáneos que es el ámbito institucional que permite la validez de las tesis del positivismo inclusivo. Villa entiende que el positivismo inclusivo, dentro del positivismo jurídico mismo, tiene mayores recursos teóricos para explicar el cambio de paradigma que ha ocurrido en los Estados de derecho y que se materializan a través de las constituciones escritas y rígidas, además que las normas constitucionales en nuestros Estados de derecho contemporáneos establecen restricciones de carácter procesal a la producción de normas, sino también restricciones sustanciales y estas últimas provienen de un tipo de normas especiales (que para muchos son positivización de la moral): los principios. Villa “señala que el contenido de muchas de las disposiciones constitucionales que hacen referencia a valores morales es de carácter muy general, a veces también genérico, cuando no es –más o menos conscientemente– ambiguo. Por tanto, rendir cuenta del contenido semántico de estas disposiciones quiere decir en cada caso, efectuar las opciones interpretativas que privilegian –no necesariamente en forma arbitraria– uno de los posibles significados que estos enunciados pueden soportar; y hacer esto quiere decir también entrar en la cuestión del posible significado de atribuir a nociones essentially contested como “libertad”, “igualdad”, “democracia”, etcétera. Dichas disposiciones, además, no se presentan nunca por sí solas en un texto constitucional, sino junto a muchas otras, en una red muy confusa de enunciados entre ellos estrechamente interrelacionados. Una de las consecuencias de la naturaleza compleja de estas disposiciones es que su interpretación no es muy a menudo capaz de vislumbrar un orden jerárquico previamente preconstituido, capaz de determinar, de una vez por todas, cuáles son los principios más importantes, y bajo qué interpretación de su contenido. Esto ocurre –al menos– por dos razones fundamentales, una de carácter teórico-lingüístico, otra de carácter filosófico-político: i) con la primera se quiere poner en evidencia, como ya he dicho antes, que el contenido de estos principios es vago, genérico, a veces ambiguo, y no permite rastrear un orden preexistente; ii) con la segunda se observa que, en cada caso, el carácter pluralista de los valores presentes dentro de nuestras cartas constitucionales excluye la previa codificación de un orden jerárquico fijo e inmutable”. La parte más interesante del artículo de Villa es su propuesta constructivista del positivismo jurídico. El autor piensa que una importante tarea del positivismo jurídico, en su versión constructivista, es la de ofrecer una concepción alternativa a la concepción fuerte de la objetividad. Aun así, se debe destacar que entre las diferentes concepciones epistemológicas actuales existen aquellas que aspiran a constituirse en una vía intermedia entre objetivismo fuerte y relativismo fuerte. “Entre estas posiciones, el enfoque constructivista aspira a identificar el núcleo de esta “vía intermedia” en la transición de una objetividad metafísica a una objetividad epistémica”.
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Arbitrary precision"

1

Kneusel, Ronald T. « Arbitrary Precision Floating-Point ». Dans Numbers and Computers, 265–92. Cham : Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-50508-4_9.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Krückeberg, Fritz. « Arbitrary accuracy with variable precision arithmetic ». Dans Interval Mathematics 1985, 95–101. Berlin, Heidelberg : Springer Berlin Heidelberg, 1986. http://dx.doi.org/10.1007/3-540-16437-5_9.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Johansson, Fredrik. « Numerical Integration in Arbitrary-Precision Ball Arithmetic ». Dans Mathematical Software – ICMS 2018, 255–63. Cham : Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-96418-8_30.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Roussinov, Dmitri. « Towards Semantic Category Verification with Arbitrary Precision ». Dans Lecture Notes in Computer Science, 274–84. Berlin, Heidelberg : Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-23318-0_25.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Ling, Leevan. « Arbitrary Precision Computations of Variations of Kansa's Method ». Dans Progress on Meshless Methods, 77–83. Dordrecht : Springer Netherlands, 2009. http://dx.doi.org/10.1007/978-1-4020-8821-6_5.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Krämer, Walter, et Frithjof Blomquist. « Arbitrary Precision Complex Interval Computations in C-XSC ». Dans Parallel Processing and Applied Mathematics, 457–66. Berlin, Heidelberg : Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-31500-8_47.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Winitzki, Serge. « Computing the Incomplete Gamma Function to Arbitrary Precision ». Dans Computational Science and Its Applications — ICCSA 2003, 790–98. Berlin, Heidelberg : Springer Berlin Heidelberg, 2003. http://dx.doi.org/10.1007/3-540-44839-x_83.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Strzebonski, Adam. « A Real Polynomial Decision Algorithm Using Arbitrary-Precision Floating Point Arithmetic ». Dans Developments in Reliable Computing, 337–46. Dordrecht : Springer Netherlands, 1999. http://dx.doi.org/10.1007/978-94-017-1247-7_26.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Rieu-Helft, Raphaël, Claude Marché et Guillaume Melquiond. « How to Get an Efficient yet Verified Arbitrary-Precision Integer Library ». Dans Lecture Notes in Computer Science, 84–101. Cham : Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-72308-2_6.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Abdulla, Parosh Aziz, Mohamed Faouzi Atig, Raj Aryan Agarwal, Adwait Godbole et Krishna S. « Probabilistic Total Store Ordering ». Dans Programming Languages and Systems, 317–45. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-99336-8_12.

Texte intégral
Résumé :
AbstractWe present Probabilistic Total Store Ordering (PTSO) – a probabilistic extension of the classical TSO semantics. For a given (finite-state) program, the operational semantics of PTSO induces an infinite-state Markov chain. We resolve the inherent non-determinism due to process schedulings and memory updates according to given probability distributions. We provide a comprehensive set of results showing the decidability of several properties for PTSO, namely (i) Almost-Sure (Repeated) Reachability: whether a run, starting from a given initial configuration, almost surely visits (resp. almost surely repeatedly visits) a given set of target configurations. (ii) Almost-Never (Repeated) Reachability: whether a run from the initial configuration, almost never visits (resp. almost never repeatedly visits) the target. (iii) Approximate Quantitative (Repeated) Reachability: to approximate, up to an arbitrary degree of precision, the measure of runs that start from the initial configuration and (repeatedly) visit the target. (iv) Expected Average Cost: to approximate, up to an arbitrary degree of precision, the expected average cost of a run from the initial configuration to the target. We derive our results through a nontrivial combination of results from the classical theory of (infinite-state) Markov chains, the theories of decisive and eager Markov chains, specific techniques from combinatorics, as well as, decidability and complexity results for the classical (non-probabilistic) TSO semantics. As far as we know, this is the first work that considers probabilistic verification of programs running on weak memory models.
Styles APA, Harvard, Vancouver, ISO, etc.

Actes de conférences sur le sujet "Arbitrary precision"

1

Lapuh, R., R. Pajntar, K. e. Rydler, V. Tarasso et J. Stenarsson. « Calculable Filter for Josephson Arbitrary Wafeform Synthesis ». Dans 2004 Conference on Precision electromagnetic Digest. IEEE, 2004. http://dx.doi.org/10.1109/cpem.2004.305506.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Großschädl, Johann, Erkay Savas et Kazim Yumbul. « Realizing Arbitrary-Precision Modular Multiplication with a Fixed-Precision Multiplier Datapath ». Dans 2009 International Conference on Reconfigurable Computing and FPGAs (ReConFig). IEEE, 2009. http://dx.doi.org/10.1109/reconfig.2009.83.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Li, He, James J. Davis, John Wickerson et George A. Constantinides. « architect : Arbitrary-precision constant-hardware iterative compute ». Dans 2017 International Conference on Field Programmable Technology (ICFPT). IEEE, 2017. http://dx.doi.org/10.1109/fpt.2017.8280123.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Kiyama, Masato, Motoki Amagasaki et Masahiro Iida. « Deep Learning Framework with Arbitrary Numerical Precision ». Dans 2019 IEEE 13th International Symposium on Embedded Multicore/Many-core Systems-on-Chip (MCSoC). IEEE, 2019. http://dx.doi.org/10.1109/mcsoc.2019.00019.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Lefevre, Vincent. « Correctly Rounded Arbitrary-Precision Floating-Point Summation ». Dans 2016 IEEE 23nd Symposium on Computer Arithmetic (ARITH). IEEE, 2016. http://dx.doi.org/10.1109/arith.2016.9.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

de Fine Licht, Johannes, Christopher A. Pattison, Alexandros Nikolaos Ziogas, David Simmons-Duffin et Torsten Hoefler. « Fast Arbitrary Precision Floating Point on FPGA ». Dans 2022 IEEE 30th Annual International Symposium on Field-Programmable Custom Computing Machines (FCCM). IEEE, 2022. http://dx.doi.org/10.1109/fccm53951.2022.9786219.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Palafox, L., E. Houtzager, J. M. Williams, H. e. van den Brom, T. J. B. M. Janssen et O. A. Chevtchenko. « Pulse Drive Electronics for Josephson Arbitrary Waveform Synthesis ». Dans 2004 Conference on Precision Electromagnetic Measurements. IEEE, 2004. http://dx.doi.org/10.1109/cpem.2004.305510.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Coskun Ozturk, Tezgul, Sarp Erturk, Ali Tangel et Mehedin Arifovic. « Measurement of Arbitrary Waveforms at Low Frequencies ». Dans 2020 Conference on Precision Electromagnetic Measurements (CPEM 2020). IEEE, 2020. http://dx.doi.org/10.1109/cpem49742.2020.9191924.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Adad, Walter F., et Ricardo J. Iuzzolino. « Arbitrary function generator using Direct Digital Synthesis ». Dans 2012 Conference on Precision Electromagnetic Measurements (CPEM 2012). IEEE, 2012. http://dx.doi.org/10.1109/cpem.2012.6251083.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Lapuh, Rado, Bostjan Voljc, Miha Kokalj, Borut Pinter, Zoran Svetik et Matjaz Lindic. « Measurement of repetitive arbitrary waveform RMS value ». Dans 2014 Conference on Precision Electromagnetic Measurements (CPEM 2014). IEEE, 2014. http://dx.doi.org/10.1109/cpem.2014.6898438.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Rapports d'organisations sur le sujet "Arbitrary precision"

1

Bailey, David H., Hida Yozo, Xiaoye S. Li et Brandon Thompson. ARPREC : An arbitrary precision computation package. Office of Scientific and Technical Information (OSTI), septembre 2002. http://dx.doi.org/10.2172/817634.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ghinculov, A. The Rare Decay B {yields} X{sub s} {ell}{sup +} {ell}{sup -} to NNLL Precision for Arbitrary Dilepton Mass. Office of Scientific and Technical Information (OSTI), décembre 2003. http://dx.doi.org/10.2172/826594.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie