Academic literature on the topic 'Prime implicants'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Prime implicants.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Prime implicants"

1

Prasad, V. C. "Quality of Minimal Sets of Prime Implicants of Boolean Functions." International Journal of Electronics and Telecommunications 63, no. 2 (June 27, 2017): 165–69. http://dx.doi.org/10.1515/eletel-2017-0022.

Full text
Abstract:
Abstract Two new problems are posed and solved concerning minimal sets of prime implicants of Boolean functions. It is well known that the prime implicant set of a Boolean function should be minimal and have as few literals as possible. But it is not well known that min term repetitions should also be as few as possible to reduce power consumption. Determination of minimal sets of prime implicants is a well known problem. But nothing is known on the least number of (i) prime implicants (ii) literals and (iii) min term repetitions , any minimal set of prime implicants will have. These measures are useful to assess the quality of a minimal set. They are then extended to determine least number of prime implicants / implicates required to design a static hazard free circuit. The new technique tends to give smallest set of prime implicants for various objectives.
APA, Harvard, Vancouver, ISO, and other styles
2

Bienvenu, M. "Prime Implicates and Prime Implicants: From Propositional to Modal Logic." Journal of Artificial Intelligence Research 36 (October 20, 2009): 71–128. http://dx.doi.org/10.1613/jair.2754.

Full text
Abstract:
Prime implicates and prime implicants have proven relevant to a number of areas of artificial intelligence, most notably abductive reasoning and knowledge compilation. The purpose of this paper is to examine how these notions might be appropriately extended from propositional logic to the modal logic K. We begin the paper by considering a number of potential definitions of clauses and terms for K. The different definitions are evaluated with respect to a set of syntactic, semantic, and complexity-theoretic properties characteristic of the propositional definition. We then compare the definitions with respect to the properties of the notions of prime implicates and prime implicants that they induce. While there is no definition that perfectly generalizes the propositional notions, we show that there does exist one definition which satisfies many of the desirable properties of the propositional case. In the second half of the paper, we consider the computational properties of the selected definition. To this end, we provide sound and complete algorithms for generating and recognizing prime implicates, and we show the prime implicate recognition task to be PSPACE-complete. We also prove upper and lower bounds on the size and number of prime implicates. While the paper focuses on the logic K, all of our results hold equally well for multi-modal K and for concept expressions in the description logic ALC.
APA, Harvard, Vancouver, ISO, and other styles
3

Kean, Alex, and George Tsiknis. "An incremental method for generating prime implicants/implicates." Journal of Symbolic Computation 9, no. 2 (February 1990): 185–206. http://dx.doi.org/10.1016/s0747-7171(08)80029-6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Qi, Guilin, and Kewen Wang. "Conflict-Based Belief Revision Operators in Possibilistic Logic." Proceedings of the AAAI Conference on Artificial Intelligence 26, no. 1 (September 20, 2021): 800–806. http://dx.doi.org/10.1609/aaai.v26i1.8226.

Full text
Abstract:
In this paper, we investigate belief revision in possibilistic logic, which is a weighted logic proposed to deal with incomplete and uncertain information. Existing revision operators in possibilistic logic are restricted in the sense that the input information can only be a formula instead of a possibilistic knowledge base which is a set of weighted formulas. To break this restriction, we consider weighted prime implicants of a possibilistic knowledge base and use them to define novel revision operators in possibilistic logic. Intuitively, a weighted prime implicant of a possibilistic knowledge base is a logically weakest possibilistic term (i.e., a set of weighted literals) that can entail the knowledge base. We first show that the existing definition of a weighted prime implicant is problematic and need a modification. To define a revision operator using weighted prime implicants, we face two problems. The first problem is that we need to define the notion of a conflict set between two weighted prime implicants of two possibilistic knowledge bases to achieve minimal change. The second problem is that we need to define the disjunction of possibilistic terms. We solve these problems and define two conflict-based revision operators in possibilistic logic. We then adapt the well-known postulates for revision proposed by Katsuno and Mendelzon and show that our revision operators satisfy four of the basic adapted postulates and satisfy two others in some special cases.
APA, Harvard, Vancouver, ISO, and other styles
5

Al-Wardi, Zaid, and Osama Al-Wardi. "RECURSIVE TERNARY-BASED ALGORITHM FOR COMPUTING PRIME IMPLICANTS OF MULTI-OUTPUT BOOLEAN FUNCTIONS." Journal of Engineering and Sustainable Development 27, no. 3 (May 1, 2023): 308–16. http://dx.doi.org/10.31272/jeasd.27.3.2.

Full text
Abstract:
The problem of computing the set of prime implicants to represent a Boolean function is a classical problem that is still considered a running problem for research because all known approaches have limitations. The article reviews existing methods for computing prime implicants and highlights their limitations, particularly for multi-output functions and limited scalability due to the growth in memory required to complete the computation. Then it proposes a recursive ternary-based minimization algorithm to compute the prime implicants of multi-output Boolean functions. The algorithm is based on the concept of Programmable Logic Array (PLA) tables, which provide a structured and efficient representation of Boolean functions. The algorithm takes advantage of the ternary logic system to efficiently compute the prime implicants while maintaining scalability for large and complex functions, which has significant implications for digital circuit design and optimization.
APA, Harvard, Vancouver, ISO, and other styles
6

Singh, Arindama. "Computing prime implicants via transversal clauses." International Journal of Computer Mathematics 70, no. 3 (January 1999): 417–27. http://dx.doi.org/10.1080/00207169908804764.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Tyrväinen, Tero. "Prime implicants in dynamic reliability analysis." Reliability Engineering & System Safety 146 (February 2016): 39–46. http://dx.doi.org/10.1016/j.ress.2015.10.007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Čepek, Ondřej, Petr Kučera, and Stanislav Kuřík. "Boolean functions with long prime implicants." Information Processing Letters 113, no. 19-21 (September 2013): 698–703. http://dx.doi.org/10.1016/j.ipl.2013.07.001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Audemard, Gilles, Steve Bellart, Louènas Bounia, Frédéric Koriche, Jean-Marie Lagniez, and Pierre Marquis. "Trading Complexity for Sparsity in Random Forest Explanations." Proceedings of the AAAI Conference on Artificial Intelligence 36, no. 5 (June 28, 2022): 5461–69. http://dx.doi.org/10.1609/aaai.v36i5.20484.

Full text
Abstract:
Random forests have long been considered as powerful model ensembles in machine learning. By training multiple decision trees, whose diversity is fostered through data and feature subsampling, the resulting random forest can lead to more stable and reliable predictions than a single decision tree. This however comes at the cost of decreased interpretability: while decision trees are often easily interpretable, the predictions made by random forests are much more difficult to understand, as they involve a majority vote over multiple decision trees. In this paper, we examine different types of reasons that explain "why" an input instance is classified as positive or negative by a Boolean random forest. Notably, as an alternative to prime-implicant explanations taking the form of subset-minimal implicants of the random forest, we introduce majoritary reasons which are subset-minimal implicants of a strict majority of decision trees. For these abductive explanations, the tractability of the generation problem (finding one reason) and the optimization problem (finding one minimum-sized reason) are investigated. Unlike prime-implicant explanations, majoritary reasons may contain redundant features. However, in practice, prime-implicant explanations - for which the identification problem is DP-complete - are slightly larger than majoritary reasons that can be generated using a simple linear-time greedy algorithm. They are also significantly larger than minimum-sized majoritary reasons which can be approached using an anytime Partial MaxSAT algorithm.
APA, Harvard, Vancouver, ISO, and other styles
10

Michalak, Marcin. "Searching for Continuous n-Clusters with Boolean Reasoning." Symmetry 16, no. 10 (October 1, 2024): 1286. http://dx.doi.org/10.3390/sym16101286.

Full text
Abstract:
A bicluster consists of a subset of rows and columns of a given matrix, whose intersection defines the region (bicluster) of values of precisely defined condition. Through the decades, a variety of biclustering techniques have been successfully developed. Recently, it was proved that many possible patterns defined in two-dimensional data could be found with the application of Boolean reasoning. The provided theorems showed that any existing pattern in the data could be unequivocally encoded as an implicant of a proper Boolean function. Moreover, a prime implicant of that function encoded the inclusion-maximal (non-extendable) pattern. On the other hand, the definition of some two-dimensional patterns may be easily extended to three-dimensional patterns (triclusters) as well as to any number of dimensions (n-clusters). This paper presents a new approach for searching for three- and higher-dimensional simple patterns in continuous data with Boolean reasoning. Providing the definition of the Boolean function for this tasks, it is shown that the similar correspondence—implicants encode patterns, and prime implicants encode inclusion-maximal patterns—has a strong mathematical background: the proofs of appropriate theorems are also presented in this paper.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Prime implicants"

1

Sanches, Aline de Paula [UNESP]. "Emprego do método de Quine-Mccluskey estendido para gerar circuito mínimo com estruturas ESOP (XOR-XNOR)." Universidade Estadual Paulista (UNESP), 2017. http://hdl.handle.net/11449/151311.

Full text
Abstract:
Submitted by ALINE DE PAULA SANCHES null (alinepaulasanches@gmail.com) on 2017-08-10T04:12:51Z No. of bitstreams: 1 Defesa10_modificada 09-08-2017.pdf: 2013568 bytes, checksum: ca3ff36ff336a306c7f01255c8eebee4 (MD5)
Approved for entry into archive by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-08-15T17:07:06Z (GMT) No. of bitstreams: 1 sanches_ap_me_ilha.pdf: 2013568 bytes, checksum: ca3ff36ff336a306c7f01255c8eebee4 (MD5)
Made available in DSpace on 2017-08-15T17:07:06Z (GMT). No. of bitstreams: 1 sanches_ap_me_ilha.pdf: 2013568 bytes, checksum: ca3ff36ff336a306c7f01255c8eebee4 (MD5) Previous issue date: 2017-07-06
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Com a disseminação de dispositivos eletrônicos cada vez menores e o advento de novas tecnologias. A busca por métodos de minimização de funções booleanas tem sido a base para eletrônica digital. Neste trabalho apresenta-se a implementação da primeira fase do método Quine-McCluskey Estendido que utiliza-se de estruturas AND-XOR-XNOR para a geração de implicantes primos. O objetivo do trabalho foi comprovar que, na maioria das vezes, a implementação de uma função Booleana utilizando expressões AND-XOR-XNOR requerem menor quantidade de termos produtos, quando comparado com implementação com expressões AND-OR. A fase de cobertura dos mintermos em ambos os métodos foi formulada como um problema de programação linear inteira 0 e 1 que através do programa Lp_solve obteve a solução de menor custo. Na comparação da eficiência dos métodos foram analisados os custos dos circuitos mínimos gerados, a quantidade de memória utilizada e o tempo de execução. Com os resultados obtidos pode-se concluir que, para a maioria dos casos executados, o método Quine-McCluskey Estendido gera uma solução de menor custo. No entanto, com relação ao desempenho computacional (tempo de execução e memória), o método Quine-McCluskey Estendido apresentou-se inferior se comparado ao Quine-McCluskey.
With the dissemination of smaller and smaller electronic devices and the advent of new technologies. The search for methods of minimizing Boolean function has been the basis for digital electronics. This work presents the implementation of the first phase of the Extended Quine-McCluskey method, which uses AND-XOR-XNOR structures to generate prime implicants. The goal of this work is to prove that, in most cases, the implementation of a Boolean function using the expressions AND-XOR-XNOR requires fewer product terms than the implementation with AND-OR expressions does. The stage of mini terms covering in both methods was formulated with the 0-1 integer linear programming problem, which obtained lower cost through the Lp_Solve program. While comparing the efficiency of these methods we analised: the costs of the minimum circuits generated, the amount of memory that has been used and the runtime. With the obtained results it is possible to conclude that, for most of the executed cases, the Extended Quine-McCluskey method generates a solution of lower cost. On the other hand, with regards to the computational performance (runtime and memory), the Extended Quine-McCluskey method has shown itself inferior when compared to the Quine-McCluskey method.
APA, Harvard, Vancouver, ISO, and other styles
2

Sanches, Aline de Paula. "Emprego do método de Quine-Mccluskey estendido para gerar circuito mínimo com estruturas ESOP (XOR-XNOR) /." Ilha Solteira, 2017. http://hdl.handle.net/11449/151311.

Full text
Abstract:
Orientador: Alexandre César Rodrigues da Silva
Resumo: Com a disseminação de dispositivos eletrônicos cada vez menores e o advento de novas tecnologias. A busca por métodos de minimização de funções booleanas tem sido a base para eletrônica digital. Neste trabalho apresenta-se a implementação da primeira fase do método Quine-McCluskey Estendido que utiliza-se de estruturas AND-XOR-XNOR para a geração de implicantes primos. O objetivo do trabalho foi comprovar que, na maioria das vezes, a implementação de uma função Booleana utilizando expressões AND-XOR-XNOR requerem menor quantidade de termos produtos, quando comparado com implementação com expressões AND-OR. A fase de cobertura dos mintermos em ambos os métodos foi formulada como um problema de programação linear inteira 0 e 1 que através do programa Lp_solve obteve a solução de menor custo. Na comparação da eficiência dos métodos foram analisados os custos dos circuitos mínimos gerados, a quantidade de memória utilizada e o tempo de execução. Com os resultados obtidos pode-se concluir que, para a maioria dos casos executados, o método Quine-McCluskey Estendido gera uma solução de menor custo. No entanto, com relação ao desempenho computacional (tempo de execução e memória), o método Quine-McCluskey Estendido apresentou-se inferior se comparado ao Quine-McCluskey.
Mestre
APA, Harvard, Vancouver, ISO, and other styles
3

Elliott, Paul Harrison 1979. "An efficient projected minimal conflict generator for projected prime implicate and implicant generation." Thesis, Massachusetts Institute of Technology, 2004. http://hdl.handle.net/1721.1/17766.

Full text
Abstract:
Thesis (S.M.)--Massachusetts Institute of Technology, Dept. of Aeronautics and Astronautics, 2004.
Includes bibliographical references (p. 109-111).
Performing real-time reasoning on models of physical systems is essential in many situations, especially when human intervention is impossible. Since many deductive reasoning tasks take memory or time that is exponential in the number of variables that appear in the model, efforts need to be made to reduce the size of the models used online. The model can be reduced without sacrificing reasoning ability by targeting the model for a specific task, such as diagnosis or reconfiguration. A model may be reduced through model compilation, an offline process where relations and variables that have no bearing on the particular task are removed. This thesis introduces a novel approach to model compilation, through the generation of projected prime implicates and projected prime implicants. Prime implicates and prime implicants compactly represent the consequences of a logical theory. Projection eliminates model variables and their associated prime implicates or implicants that do not contribute to the particular task. This elimination process reduces the size and number of variables appearing in the model and therefore the complexity of the real-time reasoning problem. This thesis presents a minimal conflict generator that efficiently generates projected prime implicates and projected prime implicants. The projected minimal conflict generator uses a generate-and-test approach, in which the candidate generator finds potential minimal conflicts that are then accepted or rejected by the candidate tester. The candidate generator uses systematic search in combination with an iterative deepening algorithm, in order to reduce the space required by the algorithm to a space that is linear in the number of variables rather than exponential.
(cont.) In order to make the algorithm more time efficient, the candidate generator prunes the search space using previously found implicants, as well as minimal conflicts, which identify the sub-spaces that contain no new minimal conflicts. The candidate tester identifies implicants of the model by testing for validity. The tester uses a clause-directed approach along with finite-domain variables to efficiently test for validity. Combined, these techniques allow the tester to test for validity without assigning a value to every variable. The conflict generator was evaluated on randomly generated models; problems in which models with 20 variables, 5 domain elements each, were projected onto 5 variables. All projected prime implicates were generated from models with 20 clauses within 2 seconds, and from models with 80 clauses within 13 seconds.
by Paul Harrison Elliott.
S.M.
APA, Harvard, Vancouver, ISO, and other styles
4

Franciscani, Juliana de Fátima [UNESP]. "Consenso Iterativo: geração de implicantes primos para minimização de funções booleanas com múltiplas saídas." Universidade Estadual Paulista (UNESP), 2016. http://hdl.handle.net/11449/144517.

Full text
Abstract:
Submitted by JULIANA DE FÁTIMA FRANCISCANI null (ifsp.juliana@gmail.com) on 2016-10-28T18:39:46Z No. of bitstreams: 1 Juliana de Fátima Franciscani.pdf: 3657600 bytes, checksum: dfdbe82d43ba74271de101385cdbbf6e (MD5)
Approved for entry into archive by Felipe Augusto Arakaki (arakaki@reitoria.unesp.br) on 2016-11-03T19:07:45Z (GMT) No. of bitstreams: 1 franciscani_jf_me_ilha.pdf: 3638504 bytes, checksum: 6ca7f15a8be8ef019afd3f8e0ecc1e52 (MD5)
Made available in DSpace on 2016-11-03T19:07:45Z (GMT). No. of bitstreams: 1 franciscani_jf_me_ilha.pdf: 3638504 bytes, checksum: 6ca7f15a8be8ef019afd3f8e0ecc1e52 (MD5) Previous issue date: 2016-08-31
Com a evolução e difusão do desenvolvimento de equipamentos utilizando microtecnologia e nanotecnologia, circuitos cada vez menores, mais eficientes e que consomem menos energia, são necessários. Os métodos de minimização de funções booleanas tornam-se relevantes por possibilitarem a otimização de circuitos lógicos, através da geração de circuitos que possuam a mesma funcionalidade, porém, minimizados. Estudos na área de minimização de funções booleanas são realizados há muito tempo, e estão sendo adaptados às novas tecnologias. A geração de implicantes primos de uma função booleana é um dos passos para a cobertura dos mintermos da função e, consequentemente, para a obtenção da função de custo mínimo. Neste trabalho, a Primeira Fase do Método de Quine-McCluskey para Funções Booleanas com Múltiplas Saídas (QMM) foi implementada para posterior comparação com os Métodos Propostos GPMultiplo e MultiGeraPlex (baseados na filosofia do algoritmo GeraPlex). Os métodos propostos geram os implicantes primos de uma função booleana com múltiplas saídas e utilizam a operação de consenso iterativo para comparar dois termos. Os resultados obtidos, através da comparação do GPMultiplo, MultiGeraPlex e da Primeira Fase do Método de QMM, puderam comprovar que a aplicação dos métodos propostos torna-se mais viável e vantajosa por permitir menor tempo de execução e uso de memória, menor quantidade de implicantes gerados e de comparações entre os termos.
With the evolution and spread of the development of equipment using microtechnology and nanotechnology, circuits in need are smaller, more efficient and consume less power. Methods of Minimizing Boolean Functions become important as they allow optimization of logic circuits by generating circuits having the same functionality, but minimized. Studies in Minimizing Boolean Functions area are carried out long ago, and are being adapted to new technologies. The generation of prime implicants of a Boolean function is one of the steps for covering the function of the minterms, and consequently to obtain the minimum cost function. In this work, the first phase of the Quine-McCluskey Method for Booleans Functions with Multiple Output (QMM) was implemented for comparison with Proposed Methods GPMultiplo and MultiGeraPlex (based on the philosophy of GeraPlex algorithm). The proposed methods generates the prime implicants of a Boolean Function with Multiple Output and using the iterative consensus operation to compare two terms. The results obtained by comparing the GPMultiplo, MultiGeraPlex and the first phase of the QMM Method, were able to prove that the application of the proposed methods becomes more feasible and advantageous, by allowing smaller execution time, number of implicants and number of comparisons.
APA, Harvard, Vancouver, ISO, and other styles
5

Franciscani, Juliana de Fátima. "Consenso Iterativo : geração de implicantes primos para minimização de funções booleanas com múltiplas saídas /." Ilha Solteira, 2016. http://hdl.handle.net/11449/144517.

Full text
Abstract:
Orientador: Alexandre Cesar Rodrigues Silva
Resumo: Com a evolução e difusão do desenvolvimento de equipamentos utilizando microtecnologia e nanotecnologia, circuitos cada vez menores, mais eficientes e que consomem menos energia, são necessários. Os métodos de minimização de funções booleanas tornam-se relevantes por possibilitarem a otimização de circuitos lógicos, através da geração de circuitos que possuam a mesma funcionalidade, porém, minimizados. Estudos na área de minimização de funções booleanas são realizados há muito tempo, e estão sendo adaptados às novas tecnologias. A geração de implicantes primos de uma função booleana é um dos passos para a cobertura dos mintermos da função e, consequentemente, para a obtenção da função de custo mínimo. Neste trabalho, a Primeira Fase do Método de Quine-McCluskey para Funções Booleanas com Múltiplas Saídas (QMM) foi implementada para posterior comparação com os Métodos Propostos GPMultiplo e MultiGeraPlex (baseados na filosofia do algoritmo GeraPlex). Os métodos propostos geram os implicantes primos de uma função booleana com múltiplas saídas e utilizam a operação de consenso iterativo para comparar dois termos. Os resultados obtidos, através da comparação do GPMultiplo, MultiGeraPlex e da Primeira Fase do Método de QMM, puderam comprovar que a aplicação dos métodos propostos torna-se mais viável e vantajosa por permitir menor tempo de execução e uso de memória, menor quantidade de implicantes gerados e de comparações entre os termos.
Mestre
APA, Harvard, Vancouver, ISO, and other styles
6

Tourret, Sophie. "Prime implicate generation in equational logic." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM006/document.

Full text
Abstract:
Ce mémoire présente le résultat de mon travail de thèse sur la génération d'impliqués premiers en logique équationnelle fermée, i.e., la génération des conséquences les plus générales de formules logiques contenants des équations et des disequations entre termes sans variables. Ce mémoire est divisé en trois parties. Tout d'abord, deux calculs de génération d'impliqués sont définis. Leur complétude pour la déduction est prouvée, ce qui signifie qu'ils sont tous deux capables de générer l'ensemble des impliqués modulo redondance d'une formule équationnelle fermée. Dans une deuxième partie, une structure de données arborescente est proposée pour stocker les impliqués générés, accompagnée d'algorithmes pour déceler les redondances et couper les branches de l'arbre lorsque c'est nécessaire. Cette structure de données est adaptée aux différents types de clauses (avec et sans symboles de fonctions, avec et sans contraintes) ainsi qu'aux différentes notions de redondance utilisées dans les calculs. En effet, chaque calcul utilise un critère de redondance légèrement différent des autres. Les preuves de correction et de terminaison des algorithmes sont fournies pour chaque algorithme. Enfin, une évaluation expérimentale des différentes méthodes de génération d'impliqués premiers est réalisée. Pour cela, un prototype de ces méthodes, écrit en Ocaml est comparé à des outils de génération d'impliqués premiers récents.Les résultats de ces expériences sont utilisés pour identifier les variantes les plus efficaces des algorithmes proposés. Les résultats sont prometteurs et dans la plupart des cas, meilleurs que ceux de l'état de l'art
The work presented in this memoir deals with the generation of prime implicates in ground equational logic, i.e., of the most general consequences of formulae containing equations and disequations between ground terms.It is divided in three parts. First, two calculi that generate implicates are defined. Their deductive-completeness is proved, meaning they can both generate all the implicates up to redundancy of equational formulae.Second, a tree data structure to store the generated implicates is proposed along with algorithms to detect redundancies and prune the branches of the tree accordingly. This data structure is adapted to the different kinds of clauses (with and without function symbols, with and without constraints) and to the various formal definitions of redundancy used in the calculi since each calculus uses different -- although similar -- redundancy criteria. Termination and correction proofs are provided with each algorithm. Finally, an experimental evaluation of the different prime implicate generation methods based on research prototypes written in Ocaml is conducted including a comparison with state-of-the-art prime implicate generation tools. This experimental study is used to identify the most efficient variants of the proposed algorithms. These show promising results overstepping the state of the art
APA, Harvard, Vancouver, ISO, and other styles
7

Willot, Hénoïk. "Certified explanations of robust models." Electronic Thesis or Diss., Compiègne, 2024. http://www.theses.fr/2024COMP2812.

Full text
Abstract:
Avec l'utilisation croissante des systèmes d'aide à la décision, automatisés ou semi-automatisés, en intelligence artificielle se crée le besoin de les rendre fiables et transparents pour un utilisateur final. Tandis que le rôle des méthodes d'explicabilité est généralement d'augmenter la transparence, la fiabilité peut être obtenue en fournissant des explications certifiées, dans le sens qu'elles sont garanties d'être vraies, et en considérant des modèles robustes qui peuvent s'abstenir quand l'information disponible est trop insuffisante, plutôt que de forcer une décision dans l'unique but d'éviter l'indécision. Ce dernier aspect est communément appelé "inférence sceptique". Ce travail s'inscrit dans ces considérations, en étudiant deux cas : - Le premier se focalise sur un modèle classique de décision utilisé pour intégrer de l'équité, les Sommes Pondérées Ordonnées (Ordered Weighted Averaging -- OWA) à poids décroissants. Notre principale contribution est de caractériser d'un point de vue axiomatique un ensemble convexe de ces règles, et de proposer à partir de cette caractérisation un schéma explicatif correct et complet des décisions prises qui peuvent être obtenues efficacement à partir d'heuristiques. Ce faisant, nous proposons aussi un cadre unifiant les dominances de Lorenz restreintes et généralisées, deux critères qualitatifs, et les OWA décroissants précis. - Le second se focalise sur le cas où la règle de décision est un modèle de classification obtenu à partir d'une procédure d'apprentissage sous forme d'un ensemble convexe de probabilités. Nous étudions et traitons le problème de fournir des impliquants premiers comme explication dans ce contexte, où en plus d'expliquer les préférences d'une classe sur une autre, nous avons aussi à traiter le cas où deux classes sont considérées incomparables. Nous décrivons ces problèmes de manière générale avant de les étudier en détail pour la version robuste du classifieur de Bayes Naïf
With the advent of automated or semi-automated decision systems in artificial intelligence comes the need of making them more reliable and transparent for an end-user. While the role of explainable methods is in general to increase transparency, reliability can be achieved by providing certified explanations, in the sense that those are guaranteed to be true, and by considering robust models that can abstain when having insufficient information, rather than enforcing precision for the mere sake of avoiding indecision. This last aspect is commonly referred to as skeptical inference. This work participates to this effort, by considering two cases: - The first one considers classical decision rules used to enforce fairness, which are the Ordered Weighted Averaging (OWA) with decreasing weights. Our main contribution is to fully characterise from an axiomatic perspective convex sets of such rules, and to provide together with this sound and complete explanation schemes that can be efficiently obtained through heuristics. Doing so, we also provide a unifying framework between the restricted and generalized Lorenz dominance, two qualitative criteria, and precise decreasing OWA. - The second one considers that our decision rule is a classification model resulting from a learning procedure, where the resulting model is a set of probabilities. We study and discuss the problem of providing prime implicant as explanations in such a case, where in addition to explaining clear preferences of one class over the other, we also have to treat the problem of declaring two classes as being incomparable. We describe the corresponding problems in general ways, before studying in more details the robust counter-part of the Naive Bayes Classifier
APA, Harvard, Vancouver, ISO, and other styles
8

PETRINI, Maria Celeste. "IL MARKETING INTERNAZIONALE DI UN ACCESSORIO-MODA IN MATERIALE PLASTICO ECO-COMPATIBILE: ASPETTI ECONOMICI E PROFILI GIURIDICI. UN PROGETTO PER LUCIANI LAB." Doctoral thesis, 2018. http://hdl.handle.net/11393/251084.

Full text
Abstract:
Con l’espressione “marketing internazionale” ci si riferisce a quell’insieme di attività adottate dall’impresa al fine di sviluppare o perfezionare la propria presenza sul mercato estero. Oggetto della presente ricerca è l’analisi degli aspetti problematici che tali attività sollevano sul piano giuridico: attraverso un approccio basato sull’integrazione della cultura economica del marketing d’impresa con quella più propriamente giuridica, l’indagine mira ad individuare le fattispecie di marketing rilevanti sotto il profilo giuridico e giuspubblicistico, ad analizzarne i profili che risultano più critici per l’impresa e proporre soluzioni concrete. La ricerca è stata condotta in collaborazione all’azienda Gruppo Meccaniche Luciani, che oltre ad essere un affermato fornitore di stampi per calzature, progetta design innovativi attraverso una sua articolazione organizzativa creativa, denominata Luciani LAB. L’impresa investe molto nell’innovazione, ed in questo senso, particolarmente significativo è stato l’acquisto di una potente stampante 3D, tecnologicamente all’avanguardia, che ha consentito all’azienda di progettare diversi prodotti, tra cui una borsa, realizzarli in prototipazione rapida, e successivamente renderli oggetto di specifiche campagne promozionali, illustrate nel presente lavoro. Viene evidenziato come queste rispecchino la peculiarità dell’approccio al marketing da parte della piccola/media impresa, descritto dalla dottrina maggioritaria come intuitivo ed empirico, distante da quello teorico e strategico del marketing management. La collaborazione con l’impresa partner del progetto ha costituito il riferimento principale per l’elaborazione del metodo con cui condurre la ricerca: l’azienda ha promosso i propri prodotti mediante diverse strumenti di marketing, come inserti pubblicitari su riviste, campagne di e-mail marketing e fiere di settore. Queste attività si distinguono tra esse non solo rispetto alle funzioni, alle differenti modalità con cui vengono impiegate e al pubblico cui si rivolgono, ma anche e soprattutto rispetto alla disciplina giuridica di riferimento: ognuna di esse infatti è regolata da un determinato complesso di regole e solleva questioni che si inseriscono in una specifica cornice giuridica. Al fine di giungere ad una sistematica trattazione dei profili giuridici connessi, si è scelto di classificare le diverse azioni di marketing in tre gruppi: quelle riferite alla comunicazione, quelle inerenti l’aspetto del prodotto e quelle che si riferiscono al cliente Per ognuna di queste aree si individua una precisa questione critica per l’impresa, e se ne trattano i profili problematici dal punto di vista giuridico. In relazione al primo gruppo, ovvero la comunicazione pubblicitaria d’impresa, si evidenziano le criticità connesse alla possibilità di tutelare giuridicamente l’idea creativa alla base del messaggio pubblicitario: si mette in discussione l’efficacia degli strumenti giuridici invocabili a sua tutela, in particolare della disciplina del diritto d’autore, della concorrenza sleale e dell’autodisciplina. Si prende come riferimento principale il contesto italiano, considerando la pluralità degli interessi pubblici, collettivi ed individuali coinvolti. Il secondo profilo d’indagine riguarda la disciplina giuridica riconducibile all’e-mail marketing, uno degli strumenti più diffusi di comunicazione digitale. L’invasività di questo sistema nella sfera personale dei destinatari impone l’adozione di adeguati rimedi da parte delle imprese per evitare di incorrere nella violazione delle disposizioni a tutela della privacy. Si trattano le diverse implicazioni derivanti dall’uso di tale strumento, in particolare quelle riferite al trattamento dei dati personali alla luce della normativa vigente in Italia e nell’Unione Europea, e connesse alle modalità di raccolta degli indirizzi e-mail dei destinatari potenzialmente interessati. Infine, la costante partecipazione alle fiere di settore da parte dell’azienda dimostra quanto l’esteriorità del prodotto costituisca uno strumento di marketing decisivo per la competitività aziendale, dunque grande è l’interesse dell’impresa a che il suo aspetto esteriore venga protetto dall’imitazione dei concorrenti. Il tema giuridico più significativo che lega il processo di marketing al prodotto dell’azienda è proprio la protezione legale del suo aspetto, ovvero la tutela del diritto esclusivo di utilizzarlo, e vietarne l’uso a terzi. L’aspetto di un prodotto può essere oggetto di protezione sulla base di diverse discipline che concorrono tra loro, sia a livello nazionale che sovranazionale, dei disegni e modelli, del marchio di forma, del diritto d’autore e della concorrenza sleale. Si è scelto di concentrare il lavoro, in particolare, sulla prima: si ricostruisce il quadro normativo e l’assetto degli interessi implicati dalla fattispecie, per arrivare ad evidenziare le principali criticità nell’interpretazione delle norme, sia a livello nazionale, che nell’Unione Europea. Si approfondiscono gli orientamenti di dottrina e giurisprudenza di alcune disposizioni chiave per l’applicazione della disciplina, quali gli artt. 6 e 7 del Regolamento CE, n. 6/2002, concernenti rispettivamente il «carattere individuale» e la «divulgazione», i due requisiti fondamentali per ottenere la registrazione e conseguente protezione giuridica del disegno. Tali nozioni sono soggette ad interpretazioni parzialmente difformi da parte dei giudici dei diversi Stati membri, e ciò contribuisce a minare l’applicazione omogenea della disciplina in tutto il territorio UE. In questo senso, viene messo in evidenza il ruolo chiave dell’orientamento della Corte di Giustizia dell’Unione Europea nell’interpretazione di tali concetti, avente l’effetto di uniformare l’approccio degli Stati. La Direttiva 98/71/CE ha introdotto la possibilità di cumulare la protezione conferita all’aspetto del prodotto dalla disciplina dei disegni e modelli con quella riconosciuta dalle altre normative. Tale previsione solleva questioni di rilievo sistematico e concorrenziale: ci si interroga su quali problemi di tipo sistematico e di concorrenza vengano sollevati dal riconoscimento su uno stesso prodotto della protezione sia come disegno che come marchio di forma, e sia come disegno che come opera dell’ingegno. In particolare nell’ambito del diritto dei marchi d’impresa e del diritto d’autore, le tutele hanno durata potenzialmente perpetua, diversamente dalla registrazione come disegno o modello, che garantisce la titolarità del diritto di utilizzare il proprio disegno in via esclusiva per un periodo limitato di massimo 25 anni. Questa differenza temporale rende il cumulo problematico sia a livello di coordinamento, che di concorrenza, poiché incentiva il sorgere di “monopoli creativi” sulle forme del prodotto. Il presente lavoro ha come obiettivo l’ampliamento della conoscenza sul tema del marketing con particolare riferimento ai profili giuridici che si pongono, con riguardo alla promozione del prodotto nell’ambito dell’Unione Europea. Si ritiene che il valore aggiunto e l’aspetto più originale della ricerca consista nella sua forte aderenza alla realtà della piccola/media impresa: tramite l’integrazione della ricerca giuridica e dello studio dei fenomeni di marketing si delineano i problemi pratici che questa si trova a dover affrontare nell’implementazione delle attività quotidiane di marketing. Tale indagine vuole essere utile a tutte le piccole/medie imprese che si trovano impreparate nell’affrontare le sfide poste dal marketing e nel conoscere le implicazioni giuridiche che da questo derivano.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Prime implicants"

1

Miras Rodríguez, María del Mar, and Silvia Martelo Landróguez. BusinesScape: buscando la implicación y motivación del alumnado. Servicio de Recursos Audiovisuales y Nuevas Tecnologías US, 2024. http://dx.doi.org/10.35466/vid2024n7965.

Full text
Abstract:
Una experiencia que ayuda a los alumnos a conectar los conceptos que se abordan en las dos asignaturas implicadas (Introducción a la Economía de la Empresa y Contabilidad) con la práctica. Entre las alternativas disponibles, decidimos apostar por la realización de un Escape Room. Se trata de la cuarta edición un Escape Room desarrollado para los alumnos de primer curso de la Facultad de Ciencias Económicas y Empresariales. Se trata de un vídeo resumen de la actividad desarrollada en el curso 2023/24, dentro de un proyecto financiado por el Plan Propio de Docencia de la US.
APA, Harvard, Vancouver, ISO, and other styles
2

Martínez Portilla, Isabel M. El refugio como escuela : experiencias organizativas de las mujeres guatemaltecas en México. Universidad Internacional de Andalucía, 2001. http://dx.doi.org/10.56451/10334/3795.

Full text
Abstract:
Investigación que gira en torno a varios ejes, uno de ellos es el análisis del proceso vivido en México a raíz de la llegada masiva a principios de la década de los ochenta de decenas de miles de desplazados guatemaltecos; de las distintas respuestas ofrecidas a lo largo de estos años por el gobierno, la población mexicana, y los distinto organismos que -desde distintas posiciones- han intervenido en el mismo. Otro de esos ejes, es el análisis de los cambios producidos en el conjunto de esta población como consecuencia del largo período de refugio, y de la influencia ejercida sobre los mismos por todos esos agentes implicados. El centro de este análisis lo constituyen los guatemaltecos refugiados asentados en los campamentos del Estado de Chiapas. El primer capítulo nos traslada al país de procedencia de los refugiados, a fin de conocer la realidad vivida por éstos y que les impulsó a huir de forma masiva de sus comunidades durante los primeros años de la década de los ochenta. El capítulo dos está dedicado a la situación de los refugiados en México, allá por 1981, año en que se inicia la llegada masiva a las fronteras. Es el tercer capítulo el de mayor peso específico del trabajo, el cual nos acerca al movimiento organizado iniciado en México por las mujeres guatemaltecas. En primer lugar, una introducción a la situación y problemática general que padecen las refugiadas en el mundo para, acto seguido, centrarse en las especiales características de las asentadas en México.
APA, Harvard, Vancouver, ISO, and other styles
3

Córdova Calle, Elia Anacely, Rony Flores Ramírez, and Teresa del Pilar López Sánchez. Regulación pública en turismo. Universidad Nacional de San Martín - Fondo Editorial, 2022. http://dx.doi.org/10.51252/4414.

Full text
Abstract:
Este libro se presenta con la intención de explicar de qué se trata la regulación pública de los servicios públicos en el Perú, en donde el Estado, como regulador de la vida económica, es necesario, y cómo se conjuga éste con la actividad turística, en primer lugar, porque todas las relaciones humanas precisan de normas y leyes de comportamiento, y, en segundo lugar, por razones económicas que justifican esa intervención pública. En este marco, se presenta una serie de casos para establecer mecanismos de reflexión para poder realizar un buen trabajo y desempeño en todas las instituciones que forman parte de la cadena de valor del turismo y la economía, siendo útil como un instrumento guía para docentes, estudiantes, empresarios y servidores públicos implicados en que emerja sosteniblemente esta importante labor. Además, se adjunta modelos y fichas de evaluaciones que utilizan algunas instituciones como MINCETUR, CENFOTUR, entre otras, para el diagnóstico de empresas turísticas, que nos pueden servir como modelos de regulación pública y privada, con el único propósito de ayudar a cualquier profesional en el ejercicio de sus funciones. Además de otros ejemplos y conceptos de la regulación económica en beneficio de todo el país.
APA, Harvard, Vancouver, ISO, and other styles
4

Torres Molina, Ramón, and María Verónica Piccone, eds. Democracia y dictadura. Editorial de la Universidad Nacional de La Plata (EDULP), 2017. http://dx.doi.org/10.35537/10915/61418.

Full text
Abstract:
El presente trabajo es resultado de algunas inquietudes surgidas en el marco de la labor docente que desarrollamos en las asignaturas Historia Constitucional (Cátedra II) y Derecho Político (Cátedra III) de la Facultad de Ciencias Jurídicas y Sociales de la Universidad Nacional de La Plata. Es un producto colectivo, fruto de discusiones y reflexiones que surgen tanto del trabajo cotidiano como docentes e investigadores, como de la confluencia de quienes participamos de esta obra en diversos espacios vinculados a la promoción y defensa de los derechos humanos. Lo impulsa también la inquietud de tender un puente, como docentes del primer año de la carrera de abogacía, entre la enseñanza media y la universitaria. Procura entonces facilitar el estudio de las materias, sintetizando conceptos centrales que no siempre han tenido en los cursos de grado el lugar destacado que merecen y, a la vez, coadyuvar en la generación de aprendizajes significativos en los y las estudiantes, a través de herramientas que favorezcan la comprensión, el análisis y la interpretación de procesos políticos complejos. Abordamos entonces temas que son históricos y también del presente, que siempre son políticos y en la mayoría de los casos, implican la puesta en discusión de una ideología y una praxis constitucional.
APA, Harvard, Vancouver, ISO, and other styles
5

Serrano, Juan. Contra el poder. Alberto Donadío y el periodismo de investigación. Sílaba Editores y Ediciones Uniandes, 2019. http://dx.doi.org/10.51566/ceper2117_30.

Full text
Abstract:
“Este es un libro que cumple con todo lo que se propone. Estaba haciendo falta en las librerías, en las mesas de noche, en los salones de clase. En Colombia son escasos los volúmenes sobre periodismo, pero son doblemente escasas las biografías que de paso cuentan el país. Este retrato preciso es ambas cosas: una serie de lecciones sobre periodismo y sobre periodismo investigativo, pero asimismo la biografía de un hombre —premiado con el Simón Bolívar a su vida y su obra— que ha visto crecer con sus propios ojos la bola de nieve de la corrupción en los tiempos en los que el oficio ha estado tratando de sacudirse el poder. Y es una verdadera rareza entre nuestras publicaciones no solo porque tiene adentro los testimonios de todos los implicados, sino porque sabe, en el momento justo, que reivindicar a Alberto Donadío es reivindicar las promesas de la democracia.” Ricardo Silva Romero “Este libro resulta sorprendentemente útil para descubrir —precisamente hoy en medio del desconcierto de la era digital—que el periodismo que se apega a su labor esencial de servir al público es capaz de sobrevivir el temporal tecnológico. La manera en que Donadío y otros de sus colegas del primer equipo investigativo de un diario en Colombia, la unidad investigativa de El Tiempo, han ejercido su labor contiene los elementos de lo que perdurará en el periodismo y esboza el futuro de lo que este será cuando muchas estructuras que hoy lo alojan se hayan derrumbado.” María Teresa Ronderos
APA, Harvard, Vancouver, ISO, and other styles
6

Sánchez Vázquez, María José. Ética, responsabilidad científica e investigación psicológica. Editorial de la Universidad Nacional de La Plata (EDULP), 2018. http://dx.doi.org/10.35537/10915/65521.

Full text
Abstract:
La presente producción corresponde a mi tesis de titulación en la Maestría de Ética Aplicada (Facultad de Filosofía y Letras, Universidad de Buenos Aires), realizada entre los años 2000 y 2005, cuyo director ha sido el profesor Dr. Carlos Cullen Soriano. La realización de la misma fue posible gracias a la obtención de un subsidio en el Programa de Becas a Docentes Universitarios del Fondo para el Mejoramiento de la Calidad (FOMEC) y la Universidad Nacional de La Plata, para la realización de posgrados en áreas de vacancia. Derroteros académico-profesionales han retrasado la aparición de este, mi primer trabajo sistemático en el área interdisciplinar entre la Ética, la Psicología y la Investigación Científica, siendo posible hoy, gracias a las oportunidades que brinda la Editorial de la Universidad Nacional de La Plata (Edulp), institución universitaria a la que pertenezco. Mi disciplina profesional es la Psicología; mi elección académica ha sido la investigación y enseñanza del proceso de investigación en sus aspectos onto-epistemológicos, metodológicos y éticos. Si bien, la tesis realizada se ha apoyado primariamente en lo epistemológico, no se trata de su única intención. Más bien, ha conformado el puntapié inicial para lanzarnos hacia las consideraciones éticas de abordar científicamente al “otro”. De todos modos, conservamos para la Psicología como disciplina, la lógica seguida para la ciencia en general, ubicándonos en una ciencia no sólo preocupada en hallar fundamentos justificacionistas (hipotético-deductivistas) respecto de sus explicaciones finales, sino también interesada en incluir los procesos interpretativos del sujeto que investiga e implicados en el intento de comprensión del fenómeno humano.
APA, Harvard, Vancouver, ISO, and other styles
7

Howard, Colin R. Arenaviruses. Oxford University Press, 2011. http://dx.doi.org/10.1093/med/9780198570028.003.0032.

Full text
Abstract:
There are few groups of viral zoonoses that have attracted such widespread publicity as the arenaviruses, particularly during the 1960’s and 1970’s when Lassa emerged as a major cause of haemorrhagic disease in West Africa. More than any other zoonoses, members of the family are used extensively for the study of virus-host relationships. Thus the study of this unique group of enveloped, single-stranded RNA viruses has been pursued for two quite separate reasons. First, lymphocytic choriomeningitis virus (LCM) has been used as a model of persistent virus infections for over half a century; its study has contributed, and continues to contribute, a number of cardinal concepts to our present understanding of immunology. LCM virus remains the prototype of the Arenaviridae and is a common infection of laboratory mice, rats and hamsters. Once thought rare in humans there is now increasing evidence of LCM virus being implicated in renal disease and as a complication in organ transplantation. Second, certain arenaviruses cause severe haemorrhagic diseases in man, notably Lassa fever in Africa, Argentine and Bolivian haemorrhagic fevers in South America, Guaranito infection in Venezuela and Chaparé virus in Bolivia. The latter is a prime example for the need of ever-continuing vigilance for the emergence of new viral diseases; over the past few years several new arenaviruses have been reported as implicated with severe human disease and indeed the number of new arenaviruses discovered since the last edition of this book have increased the size of this virus family significantly.In common with LCM, the natural reservoir of these infections is a limited number of rodent species (Howard, 1986). Although the initial isolates from South America were at first erroneously designated as newly defined arboviruses, there is no evidence to implicate arthropod transmission for any arenavirus. However, similar methods of isolation and the necessity of trapping small animals have meant that the majority of arenaviruses have been isolated by workers in the arbovirus field. A good example of this is Guaranito virus that emerged during investigation of a dengue virus outbreak in Venezuela (Salas et al. 1991).There is an interesting spectrum of pathological processes among these viruses. All the evidence so far available suggests that the morbidity of Lassa fever and South American haemorrhagic fevers due to arenavirus infection results from the direct cytopathic action of these agents. This is in sharp contrast to the immunopathological basis of ‘classic’ lymphocytic choriomeningitis disease seen in adult mice infected with LCM virus and the use of this system for elucidating the phenomenon of H2-restriction of the host cytotoxic T cell response (Zinkernagel and Doherty 1979). Despite the utility of this experimental model for dissecting the nature of the immune response to virus infection and the growing interest in arenaviruses of rodents, there remains much to be done to elucidate the pathogenesis of these infections in humans.
APA, Harvard, Vancouver, ISO, and other styles
8

Hernández, Carlos. Principios, ponderación y pretensión de corrección en el constitucionalismo discursivo de Robert Alexy. Universidad Libre sede principal, 2017. http://dx.doi.org/10.18041/978-958-8981-64-2.

Full text
Abstract:
La obra de Robert Alexy ha tenido una amplia repercusión en la filosofía del derecho y el derecho constitucional contemporáneo. Este volumen incorpora varios ensayos de profesores procedentes de diferentes partes del mundo y cuyo estudio sobre diversos aspectos del pensamiento de Alexy es indispensable. El primer ensayo de Giogio Bongiovanni, profesor de la Universidad de Bolonia, Italia, no ofrece una interpretación del libro de Alexy Begriff und Geltung des Rechts, un famoso texto en el cual se contrapone el constitucionalismo y el legalismo. En el referido libro, “Alexy propone un constitucionalismo “templado” (gemäßigten Konstitutionalismus), es decir, una teoría jurídica que, a partir de una interpretación por “valores” de los sistemas constitucionales, intenta mediar la dimensión moral del derecho con sus caracteres institucionales”. La referida interpretación por “valores” de Alexy tiene dos consecuencias: “por un lado, que, en base a esta consideración de la Constitución, el derecho no se reduce a la ley, sino que el primer concepto tiene un ámbito más amplio en relación a estos principios; por otro lado, que todas las actividades de aplicación del derecho no pueden ser consideradas como de simple subsunción del caso a la norma sino que la decisión jurisprudencial debe ser vista como una actividad de ponderación y balanceo de los distintos principios respecto a los casos. En el lado opuesto del legalismo, que a partir de las primeras posiciones de E. Forsthoff llega hasta las consideraciones de E.W. Böckenförde, aparecen diferentes objeciones a esta interpretación de la Constitución y los derechos”. Según afirma Bongiovanni, se pueden indicar cuatro direcciones de análisis. En primer lugar, Schmitt entendió que la referencia a los valores en la interpretación del Derecho conduce a la negación del pluralismo y, por tanto, a la formación de jerarquías de valores y disvalores. En segundo lugar, los valores significarían el desplazamiento de los espacios de deliberación social pues implicarían el decisionismo de los jueces y un amplio margen para la discrecionalidad política. En tercer lugar, según Forsthoff al recurrir a los valores, se extiende incontroladamente el ámbito de intervención del Estado en la vida social. Finalmente, desde el punto de vista del positivismo jurídico, recurrir a los valores significaría la pérdida de la certidumbre en el Derecho y, por tanto, la afectación de un valor tan importante como la seguridad jurídica. Pero retomemos la idea de Alexy de un constitucionalismo templado, el cual se resumen en tres argumentos: a) El autor propone una teoría de corte no - positivista fundamentada en una conexión débil entre derecho y moral; b) Una teoría de esta naturaleza implicaría la ampliación del concepto de derecho en sus aspectos procesales; c) En tercer lugar, sobre el problema de quién decide, la teoría propuesta señala la existencia de una jerarquía de los argumentos en la interpretación que medien entre reglas y principios. En la obra de Alexy “la tesis de la conexión se construye en contraposición con la conocida tesis positivista de la separación. Para este último el derecho puede tener cualquier contenido y, por este motivo, no incluye elementos morales, o, más concretamente, sostiene que no existe una necesaria conexión conceptual entre derecho y moral. El concepto de derecho es por ello definible, en esta última perspectiva sobre la base de dos elementos fundamentales: la positividad (concepto de derecho como legislación) y la eficacia. La tesis de la conexión se desarrolla en relación a dos casos: en primer lugar, respecto a la ley injusta. Esto corresponde, en la visión de Alexy, a los casos excepcionales; en segundo lugar, frente al perfeccionamiento del derecho, es decir, para su funcionamiento ordinario”. Ahora bien, en la teoría de Alexy el papel desempeñado por el poder judicial está estrechamente relacionado al centro del argumento de los principios. “Alexy sostiene que sobre la base de la complicación estructural del derecho introducida por los sistemas democrático-constitucionales (incorpación de los principios en el sistema jurídico), el rol del juez se convierte en no más que un simple ejecutor del derecho, sino que su función se amplía en dirección del balanceo entre diversos principios”. En gran medida, la concepción del rol de los jueces en el constitucionalismo está definido por la conexión entre derecho y moral desarrollado a partir de tres tesis: la tesis de la incorporación, la tesis de la moral y la tesis de la corrección. Asimismo, la interpretación se define según dos dimensiones una práctico/normativa y otra institucional. Desde la dimensión práctico/normativa la interpretación tiene por objeto lo obligatorio, prohibido, permitido y autorizado en las normas jurídicas; y la dimensión institucional tiene lugar en un contexto autoritativo, es decir, que en caso de divorcio hay una instancia que decide con efecto vinculante. Como afirma Bongiovanni “si se considera globalmente el enfoque alexiano, parece evidente que buena parte de sus tesis relativas a la conexión entre derecho y moral no son otra cosa que una aplicación de la Sonderfallthese, la tesis es que el discursojurídico forma parte del discurso práctico racional (Alexy 1998). Esta premisa permite a Alexy sostener tanto la pretensión de corrección, como la idea de la interpretación como argumento, es decir, como caso especial de “la argumentación práctico general o del discurso práctico general”. Si observamos detalladamente, sería la tesis del caso especial la que posibilita la configuración del problema de la conexión entre derecho y moral. Aunque, se debe reconocer que esto no parece convincente porque, siguiendo a Bongiovanni, la tesis de la conexión puede estar basada en argumentos de tipo empírico o histórico-evolutivo. “Esta segunda vía, que privilegia el dato de la incorporación de los principios al interior de los sistemas jurídicos contemporáneos, permite, además, la conjugación de las consideraciones de Alexy con todas las teorías de derivación positivista que en la consideración de la simple validez formal de las normas han añadido la necesidad de la valoración de su validez material”. El ensayo David Bilchitz, profesor de la Universidad de Johannesburgo, Sudáfrica, está concentrado en el análisis de uno de los pasos del test de proporcionalidad: el examen de necesidad. Para Bilchitz, “la proporcionalidad, en última instancia, trata de evaluar los beneficios obtenidos por la medidas de infracción contra los daños causados por violar los derechos fundamentales. Los jueces han desarrollado un proceso de razonamiento para dar estructura a dicho análisis. La primera parte de este proceso implica considerar el propósito de la medida que limita un derecho fundamental”. En su ensayo, Bilchitz desarrolla una interpretación estricta de la necesidad y las diversas dificultades que se producen, para ello divide los elementos de esta interpretación en cuatro sub-componentes: el componente posible que es “una gama de posibles alternativas a las medidas que el gobierno quiere empleardeben ser identificadas”, el componente instrumental que es “la relación entre la medida gubernamental bajo consideración, las alternativas identificadas en SN1 [el componente posible] y el objetivo que se pretende lograr debe ser determinado. Sólo aquellos que son “alternativas” igualmente eficaces para lograr el objetivo deben seguir siéndolo para su consideración en las siguientes partes del examen”; el impacto del componente, en el cual “las diferentes repercusiones en los derechos fundamentales de la medida y las alternativas identificadas en SN2 [el impacto del componente] deben ser determinadas; y, el componente comparativo, el cual indica que “una comparación global debe ser emprendida entre la medida gubernamental y las posibles alternativas y un juicio sobre si la medida adoptada por el gobierno es la menos restrictiva de los derechos en cuestión que pueda lograr el objetivo del gobierno en comparación con todas las otras posibles alternativas igualmente eficaces”. En su ensayo, Bilchitz ha querido analizar y profundizar en el componente de la necesidad del principio de proporcionalidad. Con tal finalidad, explica lo que ha denominado como la interpretación estricta de la necesidad, asimsimo, demuestra que una interpretación estricta de la necesidad puede generar dos problemas opuestos: “o se considera demasiado fuerte la deferencia sustancial por parte de los tribunales de otras ramas o es demasiado débil, como resultado de una construcción estricta del componente de igual efectividad”. Del mismo modo, el autor reflexiona sobre la interpretación estricta de la interpretación en cuatro partes y examina cada una de ellas, pudiendo demostrar que en cada parte se presentan juicios cualitativos y normativos que implican que la interpretación estricta no puede justificarse adecuadamente. Por ello, el autor es partidario de una interpretación moderada del examen de necesidad.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Prime implicants"

1

Villa, Tiziano, Timothy Kam, Robert K. Brayton, and Alberto Sangiovanni-Vincentelli. "Generalized Prime Implicants." In Synthesis of Finite State Machines, 221–43. Boston, MA: Springer US, 1997. http://dx.doi.org/10.1007/978-1-4615-6155-2_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Jackson, Peter, and John Pais. "Computing prime implicants." In 10th International Conference on Automated Deduction, 543–57. Berlin, Heidelberg: Springer Berlin Heidelberg, 1990. http://dx.doi.org/10.1007/3-540-52885-7_113.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Kettle, Neil, Andy King, and Tadeusz Strzemecki. "Widening ROBDDs with Prime Implicants." In Tools and Algorithms for the Construction and Analysis of Systems, 105–19. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11691372_7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ramesh, Anavai, and Neil V. Murray. "Non-clausal deductive techniques for computing prime implicants and prime implicates." In Logic Programming and Automated Reasoning, 277–88. Berlin, Heidelberg: Springer Berlin Heidelberg, 1993. http://dx.doi.org/10.1007/3-540-56944-8_60.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Pirri, Fiora, and Clara Pizzuti. "Characterizing prime implicants as projective spaces." In Advances in Artificial Intelligence, 41–46. Berlin, Heidelberg: Springer Berlin Heidelberg, 1993. http://dx.doi.org/10.1007/3-540-57292-9_40.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Willot, Hénoïk, Sébastien Destercke, and Khaled Belahcene. "Explaining Robust Classification Through Prime Implicants." In Lecture Notes in Computer Science, 361–69. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-18843-5_25.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Hartmann, Uwe. "From Prime Implicants to Modular Feedforward Networks." In Artificial Neural Nets and Genetic Algorithms, 172–75. Vienna: Springer Vienna, 1995. http://dx.doi.org/10.1007/978-3-7091-7535-4_46.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Salhi, Yakoub. "Approaches for Enumerating All the Essential Prime Implicants." In Artificial Intelligence: Methodology, Systems, and Applications, 228–39. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-99344-7_21.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Jabbour, Said, Joao Marques-Silva, Lakhdar Sais, and Yakoub Salhi. "Enumerating Prime Implicants of Propositional Formulae in Conjunctive Normal Form." In Logics in Artificial Intelligence, 152–65. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-11558-0_11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Hayase, Kazuyoshi, and Hiroshi Imai. "OBDDs of a monotone function and of its prime implicants." In Algorithms and Computation, 136–45. Berlin, Heidelberg: Springer Berlin Heidelberg, 1996. http://dx.doi.org/10.1007/bfb0009489.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Prime implicants"

1

Deharbe, David, Pascal Fontaine, Daniel Le Berre, and Bertrand Mazure. "Computing prime implicants." In 2013 Formal Methods in Computer-Aided Design (FMCAD). IEEE, 2013. http://dx.doi.org/10.1109/fmcad.2013.6679390.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Das, Sunil R., Abdullah-Al Amin, Satyendra N. Biswas, Mansour H. Assaf, Emil M. Petriu, and Voicu Groza. "An algorithm for generating prime implicants." In 2016 IEEE International Instrumentation and Measurement Technology Conference (I2MTC). IEEE, 2016. http://dx.doi.org/10.1109/i2mtc.2016.7520355.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

de Colnet, Alexis, and Pierre Marquis. "On the Complexity of Enumerating Prime Implicants from Decision-DNNF Circuits." In Thirty-First International Joint Conference on Artificial Intelligence {IJCAI-22}. California: International Joint Conferences on Artificial Intelligence Organization, 2022. http://dx.doi.org/10.24963/ijcai.2022/358.

Full text
Abstract:
We consider the problem Enum·IP of enumerating prime implicants of Boolean functions represented by decision decomposable negation normal form (dec-DNNF) circuits. We study Enum·IP from dec-DNNF within the framework of enumeration complexity and prove that it is in OutputP, the class of output polynomial enumeration problems, and more precisely in IncP, the class of polynomial incremental time enumeration problems. We then focus on two closely related, but seemingly harder, enumeration problems where further restrictions are put on the prime implicants to be generated. In the first problem, one is only interested in prime implicants representing subset-minimal abductive explanations, a notion much investigated in AI for more than thirty years. In the second problem, the target is prime implicants representing sufficient reasons, a recent yet important notion in the emerging field of eXplainable AI, since they aim to explain predictions achieved by machine learning classifiers. We provide evidence showing that enumerating specific prime implicants corresponding to subset-minimal abductive explanations or to sufficient reasons is not in OutputP.
APA, Harvard, Vancouver, ISO, and other styles
4

Rosenbaum, David J., and Marek A. Perkowski. "Superposed Quantum State Initialization Using Disjoint Prime Implicants (SQUID)." In 2008 38th International Symposium on Multiple Valued Logic (ismvl 2008). IEEE, 2008. http://dx.doi.org/10.1109/ismvl.2008.24.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Lu, Peng, and James N. Siddall. "Nonlinear Programming Using Logic Methods." In ASME 1991 Design Technical Conferences. American Society of Mechanical Engineers, 1991. http://dx.doi.org/10.1115/detc1991-0066.

Full text
Abstract:
Abstract The algorithm presented here combines Boolean logic analysis with heuristic search to solve the general 0-1 polynomial programming problem. It can also be extended to solve continuous variable problems, after the problem has been converted to discrete polynomial form. Logic relations embedded in 0-1 variables are explored by a simple consensus operation to serve as the main minimization strategy. The procedure for sequential generation of prime implicants avoids rapidly increasing the number of prime implicants when problems become large. The computational results indicate that this algorithm is quite reliable for 0-1 problem formulations.
APA, Harvard, Vancouver, ISO, and other styles
6

Devadoss, Rajeswari, Kolin Paul, and M. Balakrishnan. "Majority Logic: Prime Implicants and n-Input Majority Term Equivalence." In 2019 32nd International Conference on VLSI Design and 2019 18th International Conference on Embedded Systems (VLSID). IEEE, 2019. http://dx.doi.org/10.1109/vlsid.2019.00098.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Shevked, Zekie, and Ludmil Dakovski. "Learning and classification with prime implicants applied to medical data diagnosis." In the 2007 international conference. New York, New York, USA: ACM Press, 2007. http://dx.doi.org/10.1145/1330598.1330708.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Qiu, Jianlin, Xiang Gu, Dan Ji, Fen Li, Peng He, and Bo Wang. "Logic functions minimization algorithm based on recognition of essential prime implicants." In 2010 Sixth International Conference on Natural Computation (ICNC). IEEE, 2010. http://dx.doi.org/10.1109/icnc.2010.5583819.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Mados, B., Z. Bilanova, E. Chovancova, and N. Adam. "Field Programmable Gate Array Hardware Accelerator of Prime Implicants Generation for Single-Output Boolean Functions Minimization." In 2019 17th International Conference on Emerging eLearning Technologies and Applications (ICETA). IEEE, 2019. http://dx.doi.org/10.1109/iceta48886.2019.9040020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Basciftci, Fatih, and Sirzat Kahramanli. "An Off-Cubes Expanding Approach to the Problem of Separate Determination of the Essential Prime Implicants of the Single-Output Boolean Functions." In EUROCON 2007 - The International Conference on "Computer as a Tool". IEEE, 2007. http://dx.doi.org/10.1109/eurcon.2007.4400396.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Prime implicants"

1

Tirumalai, Parthasarathy P., and Jon T. Butler. Prime and Non-Prime Implicants in the Minimization of Multiple-Valued Logic Functions. Fort Belvoir, VA: Defense Technical Information Center, January 1989. http://dx.doi.org/10.21236/ada605375.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Dionicio, Viviana, Edwin Mayorga, Jairo Andrés Valcárcel Torres, Marta Lucía Calvache, Mónica Arcila Rivera, Fernando Díaz, Ruth Emilse Bolaños, et al. Primer Foro Internacional de Redes Sismológicas, Amenaza Sísmica y Gestión del Riesgo de Desastres. Servicio Geológico Colombiano, August 2021. http://dx.doi.org/10.32685/28056302.

Full text
Abstract:
La realización en América Latina y el Caribe del Primer Foro Internacional de Redes Sismológicas, Amenaza Sísmica y Gestión del Riesgo constituyó una oportunidad para reunir a instituciones que, desde el punto de vista de las ciencias de la Tierra, tienen responsabilidad en el manejo de la información relativa a los sismos, tanto en lo que respecta a su detección y caracterización como al análisis y evaluación de la amenaza que implican. Además, desde el punto de vista de la ingeniería, pueden darle sentido a la información a partir del análisis de la respuesta del suelo, para proponer diseños de construcciones sismorresistentes, al tiempo que, desde el punto de vista del urbanismo, los tomadores de decisiones podrán incorporar el conocimiento de riesgo sísmico en medidas de ordenamiento territorial, planeación sostenible del territorio y, en algunas ocasiones, en atención y recuperación de comunidades que se han visto afectadas por la ocurrencia de un sismo. El Foro permitió compartir experiencias y análisis de los sismos desde diferentes perspectivas, para llegar a conclusiones y acordar un plan que guíe las acciones institucionales, con miras a mejorar la seguridad de las comunidades de nuestra región. Igualmente, los conferencistas presentaron puntos de vista y análisis de temas relacionados con riesgo sísmico y aportaron ideas para preparar adecuadamente a las autoridades, instituciones y comunidad en temas derivados de la actividad sísmica.
APA, Harvard, Vancouver, ISO, and other styles
3

Macías Fernández, Arturo Pablo, and Ignacio de la Peña Leal. Sensibilidad a los tipos de interés soberanos de la cartera de colateral elegible para los préstamos de política monetaria. Madrid: Banco de España, May 2024. http://dx.doi.org/10.53479/36612.

Full text
Abstract:
Desde 2022, los tipos de interés y las rentabilidades de los bonos del Tesoro español se han incrementado de forma acusada. Desde la perspectiva de la implementación de la política monetaria, las subidas de tipos implican una reducción del valor de mercado de los activos negociables utilizados como colaterales para las operaciones de crédito del Eurosistema. En este contexto, el presente artículo se plantea tres objetivos: en primer lugar, analizar y entender la evolución de los dos componentes de la curva del tipo de interés soberano español (el tipo de interés libre de riesgo y el diferencial soberano español) desde una perspectiva histórica, para lo que se presenta la estructura temporal empírica de los diferenciales de crédito de las curvas soberanas de tres países de Europa meridional (España, Portugal e Italia). En segundo lugar, se analiza estadísticamente el impacto de estos tipos de interés sobre un subconjunto relevante de los instrumentos españoles de renta fija: los elegibles para su descuento en el banco central. Finalmente, utilizando los modelos desarrollados, se simula el impacto de cinco escenarios de estrés de los componentes del tipo de interés español sobre la disponibilidad de colateral para las operaciones de política monetaria del Eurosistema.
APA, Harvard, Vancouver, ISO, and other styles
4

Abusamra, Valeria, María de los Ángeles Chimenti, Micaela Difalcis, and Tamara Vinacur. Lectura y escritura en los primeros años de la escuela primaria: una sistematización de experiencias de evaluación de la alfabetización inicial en el contexto iberoamericano. Inter-American Development Bank, October 2024. http://dx.doi.org/10.18235/0013220.

Full text
Abstract:
Leer y escribir representan un objetivo prioritario en todos los sistemas educativos. Sin embargo, los anhelos de una sociedad lectora y crítica no se condicen con los resultados que se manifiestan a primera vista. Las dificultades en lectura, escritura y competencias textuales de los estudiantes en distintas etapas de su formación han sido ampliamente documentadas, y su relevancia ha sido reconocida por organismos internacionales que desarrollan estrategias para su mejoramiento. En América Latina, y específicamente en Argentina, surgen indicadores alarmantes sobre el desempeño en tareas que implican lectura y escritura, lo cual resulta particularmente relevante dada la importancia ecológica de estas habilidades. En este contexto, el objetivo de este informe es identificar y sistematizar las principales características de los instrumentos de evaluación de las habilidades lectoras y escritoras en niños y niñas hispanohablantes y lusófonos de primer ciclo de la escuela primaria en el ámbito iberoamericano. La implementación de herramientas de evaluación teóricamente fundamentadas y con normas adecuadas permite detectar tempranamente las dificultades y activar acciones específicas para su mitigación. Este documento forma parte de una serie del Banco Interamericano de Desarrollo (BID) orientada a sistematizar y visibilizar experiencias subnacionales y nacionales que enriquecen el diálogo regional, promoviendo la identificación de problemáticas comunes y la formulación de políticas educativas territoriales basadas en la socialización de lecciones aprendidas.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography