Dissertations / Theses on the topic 'Problemi di max'

To see the other types of publications on this topic, follow the link: Problemi di max.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 30 dissertations / theses for your research on the topic 'Problemi di max.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

DI, GIOVACCHINO STEFANO. "Approssimazione numerica structure-preserving di problemi stocastici di evoluzione." Doctoral thesis, Università degli Studi dell'Aquila, 2022. http://hdl.handle.net/11697/192064.

Full text
Abstract:
In this Ph.D. thesis, we address our attention to the geometric numerical integration of stochastic differential equations and stochastic partial differential equations whose exact dynamics are characterized by invariant laws, (see, for example, [3,4, 8, 12, 27–29, 31, 32, 34, 41, 42, 45, 54, 63, 64, 70, 116, 117, 119, 145, 147–151, 167, 175, 188] and reference therein). The first part of this work is oriented to a nonlinear stability analysis of numerical discretizations to mean-square dissipative stochastic differential systems [116] with the aim of understanding if stochastic θ-Maruyama and Milstein methods [113,115] as well as stochastic Runge-Kutta methods [159–161] are capable of exhibiting the same exponential mean-square contractive behaviour visible along the exact dynamics. The investigation reveals that the contractivity of the continuous problem is translated into bounds to the stepsize of the time integration, in the case of stochastic θ-methods while, for stochastic Runge-Kutta methods, contractivity is retained through suitable algebraic constraints on the choice of the coefficients of the methods. The second part of the treatise is devoted to stochastic Ito and Stratonovich Hamiltonian systems [31,32,147–151]. It has been proven, indeed, that the Hamiltonian computed along the exact solutions to stochastic Ito Hamiltonian systems grows linearly in time according to the well-known trace equation [31, 32, 41], while in the Stratonovich case, the Hamiltonian is conserved along the exact flow [148, 150, 151]. Here, we aim to provide a backward error analysis in order to provide long-term estimates aiming to understand the structure-preserving character of the numerical schemes under investigation. We discover that, in the Ito setting, spurious quadratic terms (with respect to the stepsize) in the expected Hamiltonian error affect the preservation of the trace equation along the numerical dynamics while, for the Stratonovich case, an exponentially increasing parasitic term in the Hamiltonian deviation destroys the overall long-term behaviour. The influence of Monte Carlo estimates on the conservative behaviour of selected numerical methods has been also addressed. Moreover, the preservation properties of stochastic θ-methods applied to the stochastic Korteweg-de Vries equation [131,135] have been also investigated. The last part of this Ph.D. thesis regards the design and the study of stochastic multiscale models aimed to describe networks of individuals under the triadic closure principle, providing a rigorous analysis of a bistable regime that has been heuristically observed in [105]. Finally, several numerical experiments have been also provided to confirm the effectiveness of all theoretical results.
APA, Harvard, Vancouver, ISO, and other styles
2

PARENTE, ANGELO. "Ricerca di strutture speciali in problemi di programmazione lineare intera." Doctoral thesis, Università Politecnica delle Marche, 2013. http://hdl.handle.net/11566/242727.

Full text
Abstract:
I problemi di Programmazione Lineare Intera sono in generale notoriamente difficili da trattare sotto l’aspetto computazionale. La progettazione di algoritmi efficienti per problemi di tale natura, quindi, spesso trae grande vantaggio dallo studio della struttura matematica soggiacente. Prendendo come spunto il problema di determinare una sottomatrice massima di tipo network di una matrice a valori in {0,−1, 1}, nel lavoro di tesi si analizza il problema equivalente di bilanciamento di un grafo signed (mbs, Max Balanced Subgraph) e quindi si generalizzano alcuni dei risultati ottenuti a problemi combinatorici di più ampia portata. In particolare, lo studio ha portato all’ideazione e implementazione dell’euristica CCH (Cycle-Contraction Heuristic) per il problema mbs che è risultata più efficace delle euristiche esistenti in letteratura. L’algoritmo CCH è basato su una regola originale di trasformazione e semplificazione dei grafi che ne riduce progressivamente la lunghezza dei cicli senza per questo compromettere l’ammissibilità delle soluzioni determinate sul grafo modificato. Successivamente sono state ideate delle regole originali di data reduction che hanno lo scopo di semplificare le istanze e/o ridurne la dimensione, pur conservando su esse la soluzione ottima del problema. Con queste regole, le performance dell’euristica CCH sono migliorate sia in termini di efficienza che di efficacia. Nella tesi viene poi proposto un nuovo modello esatto per il problema mbs basato sulla trasformazione di un grafo signed in un grafo semplice detto 2- layer, stabilendo una stretta connessione tra il problema mbs e il più comune problema di massimo insieme stabile (mis). Il grafo 2-layer fornisce nuovi strumenti per progettare algoritmi per il problema mbs, basati sui numerosi metodi di soluzione (esatti o euristici) adottati per il problema mis. Infine, è stato affrontato il tema della generalizzazione di alcuni problemi combinatorici su grafi signed ed è stato esteso il modello 2-layer al modello k-layer. In particolare è stato provato che il problema di k-coloring di un grafo signed - che generalizza il problema di bilanciamento di un grafo signed e quello di bipartizione di un grafo semplice - equivale al problema mis sul grafo k-layer.
In general, Integer Linear Programming problems are computationally hard to solve. The design of efficient algorithms for them often takes advantage from the analysis of the problem underlying mathematical structure. Starting from the problem of finding the maximum embedded network submatrix of a matrix with entries in {0,−1, 1}, this work deals with the equivalent problem of finding the maximum balanced induced subgraph of a signed graph (mbs, Max Balanced Subgraph). In particular, a new heuristic for the mbs problem, the Cycle-Contraction Heuristic (CCH), has been proposed. The algoritm is based on a graph trans- formation rule that progressively reduces the lengths of cycles, preserving at the same time the feasibility of solutions for the mbs problem. CCH turns out to be more effective of the state-of-the-art heuristics. The efficiency and the effectiveness of CCH can be further improved by means of new rules of data reduction, i.e, by a procedure that simplifies instances and/or decrease their size while preserving the optimal solution of the problem. In the second part of the work, a new exact approach for the mbs prob- lem has been proposed. Such method is based on a polynomial complexity transformation rule that turns a signed graphs into a simple 2-layer graph. The transformation estabilishes a strong connection between mbs and the well- known maximun independent set problem (mis) and allows to resort to a broad spectrum of (exact or heuristic) solution methods proposed in the literature for mis. Finally, the generalized counterpart on signed graphs of some well-known combinatorial problems have been investigated. In particular it has been proven that the k-coloring problem on a signed graph - the generalization on signed graph of the balancing problem and the generalization on a simple graph of the bipartization problem - is equivalent to mis problem on a k-layer graph, i.e., a simple graph obtained by generalizing the 2-layer transformation.
APA, Harvard, Vancouver, ISO, and other styles
3

Pecoraro, Massimo. "Old and new problems in continuum structural materials." Doctoral thesis, Universita degli studi di Salerno, 2014. http://hdl.handle.net/10556/1469.

Full text
Abstract:
2012 - 2013
The PhD thesis in Mathematics titled "Old and New Problems in continuum structural masterials " is divided into two parts. In Part I ( Chapter I and II relative to the " Old Problems" ) is studied in particular the classic behavior of materials from the mechanical point of view. In Chapter I were determined tensors of stress and strain in a solid having the shape of a hollow cylindrical , that is not simply connected , when it does act on it a displacement field able to induce all six elementary distortions of Volterra in the case where the material constituting the solid is homogeneous , linearly elastic and transversely isotropic . Unlike Volterra considers an isotropic body, characterized by two elastic constants : (E and G) , presents in the constitutive relations of the material become five (A, C, F, L and N). The result obtained is that the functions of displacement [u1 (x,y,z), u2 (x,y,z), u3 (x,y,z) ] . meet the indefinite equations of elastic written using the five elastic constants , but as Volterra , they do not cancel the load over the entire border of the hollow cylinder . In other words, do not give rise to a real distortion in that the action of the shift functions do not carry the cylinder from a natural configuration to a spontaneous through an isothermal transformation in which the load boundary is null but only self- balanced... [edited by author]
XII n.s.
APA, Harvard, Vancouver, ISO, and other styles
4

KOUHKOUH, HICHAM. "Alcuni problemi asintotici per equazioni di Hamilton-Jacobi-Bellman e applicazioni all'ottimizzazione globale." Doctoral thesis, Università degli studi di Padova, 2022. http://hdl.handle.net/11577/3444759.

Full text
Abstract:
La tesi tratta la teoria del controllo e argomenti correlati, sia in ambito deterministico che stocastico, con enfasi sugli aspetti analitici e sulle equazioni di Hamilton-Jacobi. È diviso in quattro capitoli. Il primo capitolo tratta dell'omogeneizzazione periodica e delle perturbazioni singolari in problemi di controllo deterministici. I risultati principali riguardano la convergenza e la caratterizzazione della funzione valore limite e delle traiettorie ottimali sottostanti, utilizzando limiti di controlli rilassati. Il secondo capitolo è motivato da un recente algoritmo nel contesto del Deep Learning, denominato "Deep relaxation of Stochastic Gradient Descent", e riguarda perturbazioni singolari per problemi di controllo stocastico dove la nuova difficoltà rispetto alla letteratura esistente sta nell'illimitatezza dei dati. I comportamenti asintotici in questo contesto sono stati ottenuti dopo aver sviluppato nuovi metodi di tipo probabilistico, insieme ad un adattamento degli strumenti di viscosità a problemi con dati illimitati. Quindi i risultati sono stati applicati all'algoritmo precedentemente menzionato e ad una sua estensione che coinvolge anche il controllo ottimo del cosiddetto parametro learning-rate. Il terzo capitolo è dedicato all'ottimizzazione globale. Mira a costruire un sistema dinamico che raggiunga asintoticamente il minimo globale di una data funzione. Per fare ciò vengono usate idee della teoria KAM debole e problemi di controllo sia deterministico che stocastico. I principali strumenti per dimostrare la convergenza sono misure occupazionali (aleatorie) e il comportamento asintotico delle soluzioni di equazioni di Hamilton-Jacobi. L'ultimo capitolo fornisce un nuovo metodo con nuovi risultati per la risolubilità delle equazioni ergodiche di Hamilton-Jacobi-Bellman nel caso viscoso con ingredienti illimitati e meramente misurabili. Quest'ultimo compare in vari problemi asintotici presenti in letteratura e tra quelli affrontati nei capitoli precedenti. I risultati si estendono anche ai giochi a campo medio di tipo ergodico che sono studiati nello stesso contesto.
The thesis deals with control theory and related topics both in deterministic and stochastic framework, with an emphasis on the analytical aspects and Hamilton-Jacobi equations. It is divided into four chapters. The first chapter deals with periodic homogenization and singular perturbations in deterministic control problems. The main results concern the convergence and characterization of the limit value function and the underlying optimal trajectories, using relaxed control limits. The second chapter is motivated by a recent algorithm in the context of Deep Learning, called "Deep relaxation of Stochastic Gradient Descent", and concerns singular perturbations for stochastic control problems where the new difficulty with respect to the existing literature lies in the unboundeness of the data. The asymptotic behaviors in this context were obtained after developing new probabilistic methods, together with an adaptation of the viscosity instruments to problems with unbounded data. Then the results were applied to the previously mentioned algorithm and to its extension which also involves the optimal control of the so-called learning-rate parameter. The third chapter is devoted to global optimization. It aims to construct a dynamic system that asymptotically reaches the global minimum of a given function. To do this, ideas from weak KAM theory and both deterministic and stochastic control problems are used. The main tools to prove convergence are occupational (random) measures and the asymptotic behavior of the solutions of Hamilton-Jacobi equations. The last chapter provides a new method with new results for the solvability of the ergodic equations of Hamilton-Jacobi-Bellman in the viscous case with unbounded and merely measurable ingredients. The latter appears in various asymptotic problems present in the literature and among those addressed in the previous chapters. The results also extend to ergodic Mean-Field Games which are studied in the same context.
APA, Harvard, Vancouver, ISO, and other styles
5

De, Martino Giuseppe. "Multi-Value Numerical Modeling for Special Di erential Problems." Doctoral thesis, Universita degli studi di Salerno, 2015. http://hdl.handle.net/10556/1982.

Full text
Abstract:
2013 - 2014
The subject of this thesis is the analysis and development of new numerical methods for Ordinary Di erential Equations (ODEs). This studies are motivated by the fundamental role that ODEs play in applied mathematics and applied sciences in general. In particular, as is well known, ODEs are successfully used to describe phenomena evolving in time, but it is often very di cult or even impossible to nd a solution in closed form, since a general formula for the exact solution has never been found, apart from special cases. The most important cases in the applications are systems of ODEs, whose exact solution is even harder to nd; then the role played by numerical integrators for ODEs is fundamental to many applied scientists. It is probably impossible to count all the scienti c papers that made use of numerical integrators during the last century and this is enough to recognize the importance of them in the progress of modern science. Moreover, in modern research, models keep getting more complicated, in order to catch more and more peculiarities of the physical systems they describe, thus it is crucial to keep improving numerical integrator's e ciency and accuracy. The rst, simpler and most famous numerical integrator was introduced by Euler in 1768 and it is nowadays still used very often in many situations, especially in educational settings because of its immediacy, but also in the practical integration of simple and well-behaved systems of ODEs. Since that time, many mathematicians and applied scientists devoted their time to the research of new and more e cient methods (in terms of accuracy and computational cost). The development of numerical integrators followed both the scienti c interests and the technological progress of the ages during whom they were developed. In XIX century, when most of the calculations were executed by hand or at most with mechanical calculators, Adams and Bashfort introduced the rst linear multistep methods (1855) and the rst Runge- Kutta methods appeared (1895-1905) due to the early works of Carl Runge and Martin Kutta. Both multistep and Runge-Kutta methods generated an incredible amount of research and of great results, providing a great understanding of them and making them very reliable in the numerical integration of a large number of practical problems. It was only with the advent of the rst electronic computers that the computational cost started to be a less crucial problem and the research e orts started to move towards the development of problem-oriented methods. It is probably possible to say that the rst class of problems that needed an ad-hoc numerical treatment was that of sti problems. These problems require highly stable numerical integrators (see Section ??) or, in the worst cases, a reformulation of the problem itself. Crucial contributions to the theory of numerical integrators for ODEs were given in the XX century by J.C. Butcher, who developed a theory of order for Runge-Kutta methods based on rooted trees and introduced the family of General Linear Methods together with K. Burrage, that uni ed all the known families of methods for rst order ODEs under a single formulation. General Linear Methods are multistagemultivalue methods that combine the characteristics of Runge-Kutta and Linear Multistep integrators... [edited by Author]
XIII n.s.
APA, Harvard, Vancouver, ISO, and other styles
6

DELLA, MARCA ROSSELLA. "Problemi di controllo in epidemiologia matematica e comportamentale." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1237622.

Full text
Abstract:
Nonostante i progressi nell'eliminazione di infezioni da lungo in circolazione, gli ultimi decenni hanno visto la continua comparsa o ricomparsa di malattie infettive. Esse non solo minacciano la salute globale, ma i costi generati da epidemie nell’uomo e negli animali sono responsabili di significative perdite economiche. I modelli matematici della diffusione di malattie infettive hanno svolto un ruolo significativo nel controllo delle infezioni. Da un lato, hanno dato un importante contributo alla comprensione epidemiologica degli andamenti di scoppi epidemici; d'altro canto, hanno concorso a determinare come e quando applicare le misure di controllo al fine di contenere rapidamente ed efficacemente le epidemie. Ciononostante, per dare forma alle politiche di sanità pubblica, è essenziale acquisire una migliore e più completa comprensione delle azioni efficaci per controllare le infezioni, impiegando nuovi livelli di complessità. Questo è stato l'obiettivo fondamentale della ricerca che ho svolto durante il dottorato; in questa tesi i prodotti di questa ricerca sono raccolti e interconnessi. Tuttavia, poiché fuori contesto, altri problemi a cui mi sono interessata sono stati esclusi: essi riguardano le malattie autoimmuni e l'ecologia del paesaggio. Si inizia con un capitolo introduttivo, che ripercorre la storia dei modelli epidemici, le motivazioni e gli incredibili progressi. Sono due gli aspetti su cui ci concentriamo: i) la valutazione qualitativa e quantitativa di strategie di controllo specifiche per il problema in questione (attraverso, ad esempio, il controllo ottimo o le politiche a soglia); ii) l'incorporazione nel modello dei cambiamenti nel comportamento umano in risposta alla dinamica della malattia. In questo quadro si inseriscono e contestualizzano i nostri studi. Di seguito, a ciascuno di essi è dedicato un capitolo specifico. Le tecniche utilizzate includono la costruzione di modelli appropriati dati da equazioni differenziali ordinarie non lineari, la loro analisi qualitativa (tramite, ad esempio, la teoria della stabilità e delle biforcazioni), la parametrizzazione e la validazione con i dati disponibili. I test numerici sono eseguiti con avanzati metodi di simulazione di sistemi dinamici. Per i problemi di controllo ottimo, la formulazione segue l'approccio classico di Pontryagin, mentre la risoluzione numerica è svolta da metodi di ottimizzazione sia diretta che indiretta. Nel capitolo 1, utilizzando come base di partenza un modello Suscettibili-Infetti-Rimossi, affrontiamo il problema di minimizzare al contempo la portata e il tempo di eradicazione di un’epidemia tramite strategie di vaccinazione o isolamento ottimali. Un modello epidemico tra due sottopopolazioni, che descrive la dinamica di Suscettibili e Infetti in malattie della fauna selvatica, è formulato e analizzato nel capitolo 2. Qui, vengono confrontati due tipi di strategie di abbattimento localizzato: proattivo e reattivo. Il capitolo 3 tratta di un modello per la trasmissione di malattie pediatriche prevenibili con vaccino, dove la vaccinazione dei neonati segue la dinamica del gioco dell’imitazione ed è affetta da campagne di sensibilizzazione da parte del sistema sanitario. La vaccinazione è anche incorporata nel modello del capitolo 4. Qui, essa è rivolta a individui suscettibili di ogni età ed è funzione dell’informazione e delle voci circolanti sulla malattia. Inoltre, si assume che l'efficacia del vaccino sia parziale ed evanescente col passare del tempo. L'ultimo capitolo è dedicato alla tuttora in corso pandemia di COVID-19. Si costruisce un modello epidemico con tassi di contatto e di quarantena dipendenti dall’informazione circolante. Il modello è applicato al caso italiano e incorpora le progressive restrizioni durante il lockdown.
Despite major achievements in eliminating long-established infections (as in the very well known case of smallpox), recent decades have seen the continual emergence or re-emergence of infectious diseases (last but not least COVID-19). They are not only threats to global health, but direct and indirect costs generated by human and animal epidemics are responsible for significant economic losses worldwide. Mathematical models of infectious diseases spreading have played a significant role in infection control. On the one hand, they have given an important contribution to the biological and epidemiological understanding of disease outbreak patterns; on the other hand, they have helped to determine how and when to apply control measures in order to quickly and most effectively contain epidemics. Nonetheless, in order to shape local and global public health policies, it is essential to gain a better and more comprehensive understanding of effective actions to control diseases, by finding ways to employ new complexity layers. This was the main focus of the research I have carried out during my PhD; the products of this research are collected and connected in this thesis. However, because out of context, other problems I interested in have been excluded from this collection: they rely in the fields of autoimmune diseases and landscape ecology. We start with an Introduction chapter, which traces the history of epidemiological models, the rationales and the breathtaking incremental advances. We focus on two critical aspects: i) the qualitative and quantitative assessment of control strategies specific to the problem at hand (via e.g. optimal control or threshold policies); ii) the incorporation into the model of the human behavioral changes in response to disease dynamics. In this framework, our studies are inserted and contextualized. Hereafter, to each of them a specific chapter is devoted. The techniques used include the construction of appropriate models given by non-linear ordinary differential equations, their qualitative analysis (via e.g. stability and bifurcation theory), the parameterization and validation with available data. Numerical tests are performed with advanced simulation methods of dynamical systems. As far as optimal control problems are concerned, the formulation follows the classical approach by Pontryagin, while both direct and indirect optimization methods are adopted for the numerical resolution. In Chapter 1, within a basic Susceptible-Infected-Removed model framework, we address the problem of minimizing simultaneously the epidemic size and the eradication time via optimal vaccination or isolation strategies. A two-patches metapopulation epidemic model, describing the dynamics of Susceptibles and Infected in wildlife diseases, is formulated and analyzed in Chapter 2. Here, two types of localized culling strategies are considered and compared: proactive and reactive. Chapter 3 concerns a model for vaccine-preventable childhood diseases transmission, where newborns vaccination follows an imitation game dynamics and is affected by awareness campaigns by the public health system. Vaccination is also incorporated in the model of Chapter 4. Here, it addresses susceptible individuals of any age and depends on the information and rumors about the disease. Further, the vaccine effectiveness is assumed to be partial and waning over time. The last Chapter 5 is devoted to the ongoing pandemic of COVID-19. We build an epidemic model with information-dependent contact and quarantine rates. The model is applied to the Italian case and explicitly incorporates the progressive lockdown restrictions.
APA, Harvard, Vancouver, ISO, and other styles
7

BOCCAFOLI, Matteo. "Assistenza sanitaria a domicilio: problemi multi-obiettivo d’instradamento di veicoli con bilanciamento di carico e fidelizzazione paziente-infermiera." Doctoral thesis, Università degli studi di Ferrara, 2013. http://hdl.handle.net/11392/2388893.

Full text
Abstract:
In this Thesis we tackled a real life problem concerning the management of a Home Health Care service, where nurses provide medical treatments directly at patients home. The weekly master problem consist of assigning to each service request a day of week and a nurse according to the service frequency while ensuring a minimum elapsed time between successive treatment deliveries, and to optimally sequence the requests assigned to each nurse on each day of the week. The objective function is a weighted sum of the priorities of each stakeholder: the service provider aims at minimizing the time nurses spend travelling from a patient to the next as well as overtime work; nurses aim at workload balancing; patients would like to be treated by the same nurse over time. We proposed a MILP formulation for this problem, investigated two mathe- matical programming based approaches, namely Column Generation and Ben- ders Decomposition, and we developed a procedure computing a valid lower bound. Real cases could not be solved by such approaches so metaheuristics have been investigated as well. Adaptive Large Neighborhood Search and Variable Neighborhood Search based methods have been developed and applied to this problem, devising ad hoc moves and efficient feasibility check procedures that exploit the problem structure. A large experimental campaign has been carried out, including an analysis of real data characteristics, which highlights pros and cons of each method and confirms the viability of the approach to solve realistic instances.
APA, Harvard, Vancouver, ISO, and other styles
8

BERTOCCHI, CARLA. "I Metodi Interior Point Incontrano le Reti Neurali: un'Applicazione al Deblurring di Immagini." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2020. http://hdl.handle.net/11380/1200562.

Full text
Abstract:
In questa tesi si propone una nuova strategia di deep learning per affrontare il problema del deblurring applicato a immagini digitali. Quest’ultimo è un problema inverso noto che viene solitamente riformulato come problema di ottimizzazione regolarizzata, in cui, la funzione obiettivo da minimizzare è data dalla somma di un termine di data-fidelity e di un termine di regolarizzazione. Inoltre, è possibile imporre dei vincoli sulla funzione obiettivo, che permettono di integrare conoscenze a priori sulla soluzione desiderata. In questo lavoro, si considerano termini di data-fidelity e di regolarizzazione differenziabili e si includono vincoli di tipo box sulla funzione obiettivo, attraverso l'uso di una funzione di barriera logaritmica. Nel nostro caso, viene adottato un metodo interior point (IPM) per affrontare il processo di minimizzazione, in cui il proximity operator è applicato alla sola funzione di barriera. La peculiarità dell’approccio proposto sta nel fatto che il parametro di regolarizzazione, il parametro di barriera e la lunghezza di passo necessari all’applicazione del metodo IPM sono scelti mediante una particolare strategia di deep learning. In particolare, i passi dell’algoritmo IPM vengono incorporati in una rete neurale, il cui processo di training si fonde con il processo di ottimizzazione. Per fare il training e testare la rete neurale risultante si è utilizzato un dataset di immagini naturali ben noto in letteratura. In particolare ci si è confrontati con metodi standard di proiezione del gradiente, con recenti algoritmi di machine learning e con altri unfolded methods. In conclusione, i test mostrano come l’approccio proposto abbia buone prestazioni e sia competitivo rispetto allo stato dell’arte.
The aim of this thesis is to propose novel Deep Learning model to approach the image deblurring problem. This is a well known Inverse Problem that is usually reformulated as a regularized optimization problem, in which the objective function to be minimized is a sum of a data discrepancy measure with a regularization term. Also additional constraints can be imposed to incorporate a priori knowledge on the desired solution. In our work we consider smooth data-fidelity and regularization terms and we include constraints in the objective function by means of a logarithmic barrier. A proximal interior point method (IPM) is adopted to address the minimization step, in which the proximity operator is restricted only to the barrier function. The key issue of our proposed approach is the following: the regularization parameter, the barrier parameter and the step size needed in the iterations of the IPM are chosen by means of a particular Deep Learning strategy. In particular, we say that the IPM algorithm is unfolded in a neural network structure, whose training process merges with the optimization process. We used benchmarks image datasets to train the resulting neural network architecture and test our approach. Comparisons with standard gradient projection methods, with recent machine learning algorithms and also with other unfolded methods have been performed and the tests showed good performances and competitiveness of our approach.
APA, Harvard, Vancouver, ISO, and other styles
9

DI, CREDICO GIULIA. "Metodo Energetico agli Elementi di Contorno per problemi di Elastodinamica 2D nel dominio del tempo." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2022. http://hdl.handle.net/11380/1265215.

Full text
Abstract:
Questa tesi è incentrata sull’applicazione del Boundary Element Method di tipo energetico per la risoluzione di problemi elastodinamici, con propagazione esterna ad un ostacolo aperto o ad una regione limitata da un contorno chiuso Lipschitziano. A partire dalla soluzione fondamentale di Green, il problema differenziale può essere riscritto in termini di diversi tipi di equazioni integrali di contorno (BIE), utili alla risoluzione di problemi con dato di Dirichlet o di Neumann sull’ostacolo e ridefinite in formulazioni deboli nel dominio del tempo, basate sull’energia del sistema. Le formulazioni deboli considerate, una volta discretizzate, producono sistemi lineari con matrici triangolari inferiori di Toeplitz, i cui elementi sono integrali quadrupli in spazio e tempo. In una consistente parte di tesi vengono discusse le formule di quadratura impiegate nell’approssimazione numerica, ad alta precisione, degli integrali di contorno, tenendo conto delle singolarità caratteristiche degli operatori integrali: O(log(r)) per l’operatore di strato singolo, O(1/r) per quello di doppio strato e O(1/r^2) per quello ipersingolare. Inoltre, un accurato studio del dominio di integrazione in variabili locali permette di evitare l’integrazione diretta delle funzioni Heaviside, comuni a tutti i tipi di nuclei integrali. È inoltre descritta l’analisi teorica basata sulla rappresentazione indiretta di strato singolo, con l’obbiettivo di dimostrare proprietà di continuità e coercività della forma bilineare associata, e numerosi test numerici vengono presentati a conferma della correttezza e dell’efficacia del BEM energetico, mostrando in particolare soluzioni delle BIE stabili nel tempo. In alternativa alla decomposizione uniforme dell’ostacolo, vengono presi in considerazione diversi tipi di discretizzazione spaziale, con l’obbiettivo di carpire il comportamento asintotico della soluzione della BIE di strato singolo verso gli estremi di un ostacolo aperto o nei pressi degli angoli di un arco poligonale chiuso. In particolare, l’incognita di tale BIE, in un problema di tipo Dirichlet, ha un andamento O(r^-1/2) agli estremi di un segmento e si comporta come O(r^-w) nei pressi di un angolo, la cui ampiezza è legata all’esponente w. Un raffinamento di tipo geometrico o algebrico della mesh vicino a questi punti critici dell’ostacolo migliora la convergenza verso la soluzione della BIE: viene mostrata pertanto un’analisi approfondita del decadimento dell’errore in norma energetica rispetto all’uso di vari metodi di approssimazione, verificando numericamente l’andamento stimato dell’errore per ogni tipo di discretizzazione (tecnica h, tecnica p e tecnica h-p). Considerazioni e test numerici vengo presentati anche per la formulazione indiretta con operatore ipersingolare applicata a problemi di Neumann. Infine, osserviamo che, con l’utilizzo di funzioni di base lagrangiane, la matrice BEM è composta da blocchi temporali che diventano generalmente densi con l’avanzare del tempo. La memoria totale occupata pertanto è O(M^2N), con M ed N gradi di libertà rispettivamente spaziali e temporali. Questo rende l’applicazione del BEM onerosa per problemi realistici su larga scala. In questa tesi viene proposta una tecnica veloce, basata sull’Adaptive Cross Approximation (ACA), che permette un’approssimazione a basso rango dei blocchi temporali, riducendo drasticamente il numero degli elementi originari della matrice da valutare. Ciò porta anche ad una riduzione della memoria richiesta, dei tempi di assemblaggio e di risoluzione del sistema lineare. La fattibilità della strategia è teoricamente dimostrata nello specifico per la formulazione debole di singolo strato e diversi test numerici sono presentati e discussi.
This thesis deals with the application of the Energetic Boundary Element Method (BEM) for the resolution of elastodynamic problems in bidimensional unbounded domains, outside an open regular obstacle or external to a region with a closed Lipschitz boundary. Starting from the fundamental Green’s tensor, the differential problem is rewritten in terms of different Boundary Integral Equations (BIEs), suitable to solve problems equipped by Dirichlet or Neumann datum at the boundary. These BIEs are then set in a space-time weak form, based on energy arguments, and numerically solved by means of Energetic BEM. All the considered weak BIEs, once discretized, give rise to linear systems with lower triangular Toeplitz matrix, whose entries are quadruple space-time integrals. A consistent part of the thesis discusses the quadrature formulas employed to compute numerically the integrals in space variables on the boundary with high accuracy, and taking into account the characteristic space singularities: O(log(r)) for the single layer integral operator, O(1/r) for the double layer integral operator and O(1/r^2) for the hypersingular integral operator. Moreover, an accurate study of the integration domain in local variables allows to overcome the issues of the integration of peculiar step functions that feature all the integral kernels. A theoretical analysis of the indirect weak form with single layer operator has been executed, in order to prove properties of coercivity and continuity of the associated energetic bilinear operator, and numerous numerical results are presented to confirm the correctness and the effectiveness of the energetic BEM, showing in particular long time stability of the BIE solutions. In alternative to the uniform decomposition of the obstacle, I have taken into account different types of discretization that turn out to be useful, for instance, to catch the asymptotic behaviour of the single layer BIE solution at the endpoints of an open obstacle or at the corners of a polygonal closed arc. In particular, the solution of this BIE for a Dirichlet problem behaves like O(r^-1/2) at the extremes of a crack and like O(r^-w) near a corner, with the exponent w related to the amplitude of the angle. Meshes geometrically or algebraically refined at these critical points improve the convergence towards the solution: therefore, an in dept analysis of the error decay in energy norm is shown with respect to the type of refinement (h-version, p-version and hp-version have been in particular considered). The numerical results verify the theoretical slope of the estimated error for the various discretization method. Similar remarks and numerical experiments are also presented for Neumann problems, solved by indirect weak form depending on the hypersingular operator. Lastly, I take into account the following issue: when standard Lagrangian basis functions are considered, the BEM matrices are made by time-dependent blocks that are generally fully populated. The overall memory cost of the energetic BEM is O(M^2N), M and N being the number of space and time degrees of freedom, respectively. This can prevent the application of BEM to large scale realistic problems. Thus, in this thesis, a fast technique, based on the Adaptive Cross Approximation (ACA), is provided in order to get a low rank approximation of the time blocks, reducing drastically the number of the original entries to be evaluated. This procedure leads to a drop in the computational time, spent for the assembly and the resolution of the linear system, and in the memory storage requirements, which are generally relevant. The effectiveness of this strategy is theoretically proved for the single layer weak formulation and several numerical results are presented and discussed.
APA, Harvard, Vancouver, ISO, and other styles
10

CRISCI, SERENA. "Proprietà spettrali dei metodi del gradiente per problemi di ottimizzazione con vincoli speciali." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2020. http://hdl.handle.net/11380/1200563.

Full text
Abstract:
Il ruolo delle tecniche di scelta del passo nel metodo del gradiente è stato largamente studiato in letteratura. Di fondamentale ispirazione, a tal riguardo, è stato il lavoro di Barzilai e Borwein (1988), a partire dal quale sono state sviluppate nuove ed efficienti tecniche di scelta del passo, che hanno contribuito a rendere gli approcci di tipo gradiente particolarmente efficaci per la risoluzione di problemi di ottimizzazione di grandi dimensioni nell’ambito delle applicazioni reali. Tali tecniche sono state principalmente ideate nel contesto dell’ottimizzazione non vincolata, allo scopo di introdurre informazioni del secondo ordine utili ad accelerare la riduzione del gradiente della funzione obiettivo e sono state poi utilizzate con successo anche nei metodi del gradiente proiettato (GP) per la risoluzione di problemi di ottimizzazione vincolata. Tuttavia nel caso vincolato, a differenza di quanto fatto nel caso non vincolato, manca in letteratura un’accurata analisi delle proprietà spettrali del metodo GP in relazione alle tecniche di scelta del passo e a come queste siano influenzate dalla presenza dei vincoli. Accanto a ciò, è opportuno ricordare che i risultati di convergenza del metodo del gradiente proiettato non richiedono ipotesi particolarmente restrittive per la scelta del passo, a patto che esso sia strettamente positivo ed appartenga ad un intervallo reale limitato: pertanto, questa flessibilità di scelta consente di sviluppare regole di aggiornamento del passo atte ad ottimizzare il comportamento numerico, senza incrementare i costi computazionali. Sulla base di queste considerazioni, intendiamo esaminare, dapprima per il caso quadratico, in che modo le regole di Barzilai-Borwein (BB) sono influenzate dalla presenza della regione ammissibile. A tale scopo, abbiamo analizzato il comportamento dei passi generati da tali regole in relazione allo spettro della matrice Hessiana della funzione obiettivo, partendo dal caso più semplice di vincoli box per poi considerare un caso più generale di regione ammissibile espressa da un vincolo lineare di uguaglianza e vincoli di tipo box (a quest’ultimo caso ci riferiremo con l’acronimo SLB, dalla notazione inglese). Nello specifico, proponiamo versioni modificate delle regole BB (e di alcune loro estensioni), che consentono di migliorare le prestazioni del metodo del gradiente proiettato. Guidati dai risultati ottenuti per le regole di tipo BB, abbiamo esteso l’analisi delle proprietà spettrali anche alla strategia di aggiornamento del passo proposta da Roger Fletcher (2012) nell’ambito del metodo denominato Limited Memory Steepest Descent (LMSD). In particolare, si è proposto di adattare l’approccio di Fletcher al metodo del gradiente proiettato per la risoluzione di problemi di minimizzazione quadratici con vincoli box, introducendo la possibilità di modificare la strategia originale per tenere conto dei vincoli in maniera opportuna. L’efficienza pratica delle strategie proposte è stata verificata attraverso una consistente sperimentazione numerica su problemi quadratici di grande dimensione generati in maniera casuale, su problemi non quadratici ben noti e su un dataset di problemi provenienti da applicazioni reali.
The role of the steplength selection strategies in gradient methods has been widely investigated in the last decades. Starting from the pioneering paper of Barzilai and Borwein (1988), many efficient steplength rules have been designed, which contributed to make gradient-based approaches an effective tool for addressing large-scale optimization problems arising in many real-world applications. Most of these steplength selection rules have been developed in the unconstrained optimization framework, with the aim of exploiting some second-order information for achieving a fast annihilation of the gradient of the objective function. These steplength rules have been successfully applied also within gradient projection (GP) methods for constrained optimization, though, in this case, a detailed analysis on how the constraints may affect their spectral properties, as well as their formulation, has not been yet carried out. However, the convergence criteria for the GP method do not require restrictive hypothesis on the steplength parameter, provided that it is bounded away from zero and belongs to a predefined interval: this flexibility in the choice of the steplength allows to develop updating strategies aimed at optimizing the numerical behaviour, possibly in an inexpensive way. Motivated by these considerations, we analyse how, for quadratic programs, the original Barzilai-Borwein (BB) schemes are influenced by the presence of the feasible set. To this aim, we analyse their behaviour with respect to the spectrum of the Hessian of the objective function starting from the simpler case of box-constraints, and then moving to inspect the case of a more general feasible region expressed by a Single Linear equality constraint together with lower and upper Bounds (SLB). We propose modified versions of the BB rules (and their extensions), obtaining improvements of the gradient projection methods. Driven by this study on the BB rules, we extend the spectral analysis to the steplength updating strategy proposed by Roger Fletcher (2012) within the so-called Limited Memory Steepest Descent (LMSD) method. In particular, we combine the idea of the limited memory steplength approach with the gradient projection method for quadratic programming problems subject to box-constraints, investigating the possibility of modifying the original updating strategy in order to take into account the lower and the upper bounds in a suitable manner. The practical effectiveness of the proposed strategies has been tested in several numerical experiments on random large scale box-constrained and SLB quadratic problems, on some well known non quadratic problems and on a set of test problems arising from real-life applications.
APA, Harvard, Vancouver, ISO, and other styles
11

Gentile, Chiara. "Metodo del gradiente coniugato per problemi ai minimi quadrati non lineari." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/12187/.

Full text
Abstract:
In questo elaborato vengono prese in considerazione tre versioni del metodo del gradiente coniugato proposte per l'ottimizzazione di funzioni non quadratiche con l'obiettivo di analizzare il loro utilizzo come metodi di regolarizzazione per problemi ai minimi quadrati non lineari mal condizionati. In particolare le tre versioni prese in esame sono: il metodo di Fletcher-Reeves, il metodo di Polak-Polyak-Ribiére e una versione ibrida dei due. Dai risultati numerici è stato possibile osservare che i metodi in questione sono metodi di regolarizzazione iterativi e producono risultati competitivi con i metodi di solito utilizzati in questo contesto (Lavenberg-Marquard, Gauss-Newton).
APA, Harvard, Vancouver, ISO, and other styles
12

Cheng, Ai Lian Elena. "Algoritmi per la stima del rumore nella ricostruzione di immagini." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7894/.

Full text
Abstract:
In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.
APA, Harvard, Vancouver, ISO, and other styles
13

Xu, Fei <1984&gt. "Problemi e strategie della traduzione italiano-cinese --analisi della traduzione cinese di "I cinesi non muoiono mai"." Master's Degree Thesis, Università Ca' Foscari Venezia, 2015. http://hdl.handle.net/10579/5774.

Full text
Abstract:
La tesi si tratta di discutere i problemi della traduzione italiano-cinese, e di cercare di trovare un metodo adeguato per effettuare la traduzione. Si prevedono delle analisi su diversi capitoli del libro "I cinesi non muoiono mai", il cui versione cinese è stata pubblicata in Cina con il nome "不死的中国人" nel 2011. La tesi analizzerà la traduzione e la reversione che ho fatto io, insieme al testo originale per confrontare e dialogare la metodologia della traduzione, sia dal punto di vista sintattica che grammatica.
APA, Harvard, Vancouver, ISO, and other styles
14

TONON, REMIS. "Due problemi di teoria analitica dei numeri: somme armoniche con i primi e distribuzione delle cifre di quozienti fra interi." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2020. http://hdl.handle.net/11380/1200579.

Full text
Abstract:
Nella prima parte della tesi si estendono i risultati dell’articolo “Small values of signed harmonic sums” di Bettin, Molteni & Sanna (2018). In esso, gli autori considerano serie armoniche troncate, in cui si ammette per ogni addendo la possibilità del segno positivo o negativo, e studiano la funzione che misura quanto precisamente si possa approssimare un valore reale con tali oggetti. Nello specifico, vengono dimostrate delle limitazioni per tale funzione in alcuni intervalli di validità. Nella tesi si è dimostrato che lo stesso risultato vale non solo per la successione di tutti i naturali, ma anche per ogni sua sottosuccessione che rispetti ragionevoli ipotesi di crescita. Inoltre, nel caso specifico della successione dei numeri che sono il prodotto di k fattori primi distinti, dove k è un numero naturale fissato, è stato possibile migliorare sensibilmente le limitazioni per la funzione approssimante. Nella seconda parte della tesi si migliora il risultato dell’articolo “Probability of digits by dividing random numbers: a ψ and ζ functions approach” di Gambini, Mingari Scarpello & Ritelli (2012). Gli autori studiano in esso la distribuzione dell’ennesima cifra dopo la virgola (in diverse basi di numerazione) di tutti i possibili quozienti tra i primi N numeri naturali, dimostrando che essa non è uniforme, ma che segue una legge affine alla legge di Benford. Nella tesi, si migliora il termine d’errore proposto dai tre autori; inoltre, si studiano degli aspetti differenti e ulteriori e alcune varianti del problema, come ad esempio l’uniformità della formula.
In the first part of this thesis we extend the results of the paper “Small values of signed harmonic sums” by Bettin, Molteni & Sanna (2018). There, the authors consider harmonic truncated series, where the summands can have a positive or a negative sign; using these objects to approximate any real value, they study the function that measures the precision of this approximation. In particular, they prove some bounds for this function in some specific ranges. In this thesis, we prove that the same result holds not only for the sequence of all natural numbers, but also for any subsequence that satisfies a growth hypothesis. Besides, in the case of the sequence of numbers that are the product of k distinct primes, where k is a fixed natural number, we obtain a significant improvement on the bounds for the approximating function. In the second part of this thesis, we improve the result of the paper “Probability of digits by dividing random numbers: a ψ and ζ functions approach” by Gambini, Mingari Scarpello & Ritelli (2012). The authors study there the distribution of the nth digit after the decimal point (in different bases) of all possible ratios between the first N natural numbers: they prove that it is not uniform, but it follows a law analogous to Benford’s one. In this thesis, we improve the error term found by the authors; besides, we study some further and different aspects and some variations of the problem, such as the uniformity of the formula.
APA, Harvard, Vancouver, ISO, and other styles
15

MATOS, MENDES NILSON FELIPE. "Sistema di supporto alle decisioni basato sulla Ricerca Operativa per problemi nella logistica farmaceutica." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1244339.

Full text
Abstract:
I servizi sanitari dipendono fortemente dalla disponibilità di attrezzature e medicinali. Eventuali mancanze possono provocare interruzioni dei trattamenti, riduzioni di capacità, o ritardi indesiderati. Nell’ultimo decennio, group purchasing organizations, legate alla logistica farmaceutica esternalizzata, hanno sostituito gli approcci tradizionali di acquisto per evitare carenze nei servizi. In Italia, questo processo è stato iniziato negli anni 1990, con una politica di regionalizzazione condotta dal Servizio Sanitario Nazionale. Tuttavia, per fare funzionare questa strategia, è fondamentale avere una buona integrazione tra magazzini e strutture di distribuzione. Questo significa prendere varie decisioni a tutti i livelli gestionali. Siccome queste decisioni sono difficile da valutare manualmente, un supporto informatico diventa essenziale. In questa tesi, presentiamo algoritmi e processi di sviluppo usati per creare un sistema di supporto alle decisioni per un’azienda di logistica sanitaria specializzata in stoccaggio e distribuzione di prodotti farmaceutici in Italia. Nel primo capitolo, la concezione e l’implementazione del software sono presentate, assieme ai dettagli sull’integrazione della tecnologia. Nel secondo capitolo, la parte del sistema riguardante il trasporto di merce è presentata, con un focus sull’approccio computazionale per risolvere due problemi strettamente correlati, un Rich Vehicle Routing Problem e un problema di schedulazione di veicoli ed autisti. Nel terzo capitolo, è presentato un problema di allocazione di prodotti in un magazzino, con vincoli riguardanti la logistica farmaceutica, assieme a un algoritmo basato sul paradigma meta-euristico Iterated Local Search (ILS) per risolverlo. Nelle conclusioni, sono mostrate alcune possibilità di miglioramento del sistema e di future prospettive di ricerca. Inoltre, l’appendice contiene due capitoli che descrivono i risultati ottenuti in ricerche parallele svilluppate dall’autore. Nella prima appendice, è presentato un euristico di tipo Adaptative Large Neighbourhood Search combinato con un modello di Set Partitioning per risolvere un problema di dial-a-flight multi obiettivo. In questo problema, una flotta eterogenea di aerei è usata essere per portare i passeggeri alle loro destinazioni. L’obiettivo è minimizzare il disagio dei viaggiatori (misurato in ritardi e fermate intermedie) e i costi. Ogni aereo ha differenti velocità, consumo di carburanti, capacità e costi. Il problema ha alcuni vincoli operazionali stretti, come il peso massimo dell’aereo (passeggeri compresi), sicurezza, indisponibilità di carburante in alcuni aeroporti e finestre temporali. La seconda appendice propone quattro modelli matematici e un euristico basato sul paradigma ILS per ottimizzare una schedulazione con deterioramento dipendente dalla posizione dei lavori e da attività di manutenzione. In questo problema, un insieme di lavori devono essere schedulati su un insieme di macchine parallele non correlate per ottimizzare il makespan. Ogni attività ha il suo tempo di processamento e causa un deterioramento nella macchina che fa alzare il tempo di processamento delle prossime attività di un fattore cumulativo. Le manutenzioni, che hanno tempi di processamento significanti, possono essere schedulate tra due attività, facendo sì che la macchina riprenda la sua performance ottimale. Complessivamente, i contributi di questa tesi si concentrano nella proposta di algoritmi e software per risolvere complessi problemi di routing e schedulazione derivanti da problemi decisionali reali.
Healthcare services are strongly dependent on the availability of equipment and medicines, as shortages can lead to treatments interruptions, reduced capacity, or undesirable delays. In the last decades, centralized group purchasing organizations, coupled with an outsourced pharmaceutical logistic, have replaced traditional approaches to avoid shortages and associated negative effects. In Italy, this process started in the 1990s with a regionalization conducted by the Italian National Health Service. To make centralization strategy works, however, a good integration between warehouses and delivery infrastructure is fundamental. This means taking many decisions at all managerial levels. As these decisions are hard to be evaluated by hand, a computational tool becomes essential. In this thesis, we present algorithms and development processes used to create a decision support system for a pharmaceutical logistic company specialized in storage and distribution of pharmaceutical products in Italy. In the first chapter, the software conception and implementation are presented, including details about technology integration. In the second chapter, the transportation part of the system is presented, with a focus on the computational approach to solve two closely related problems, a rich vehicle routing problem and a truck and driver scheduling problem. In the third chapter, we present a storage allocation problem that has special constraints associated with the pharmaceutical logistic, and an Iterated Local Search (ILS) based algorithm to solve it. In conclusion, some possible system improvements and future research directions are shown. Additionally, the appendix contains two chapters that describe the results obtained in parallel researches developed by the author. The first appendix presents an Adaptative Large Neighbourhood Search heuristic combined with a Set Partitioning model to solve a multiobjective dial-a-flight problem. In this problem, a heterogeneous fleet of airplanes must be routed to carry passengers to a required destination. The objective is to minimize user inconvenience (measured by delays and intermediary stops) and costs. Each airplane has different speed, fuel consumption, capacity, and costs. The problem contains some hard-operational constraints such as airplane maximum weight (including passengers), safety, unavailability of fuel in some airports and time windows. The second appendix proposes four mathematical models and an ILS based heuristic to optimize a scheduling problem with position-dependent deterioration and maintenance activities. In this problem, a set of jobs must be scheduled on a set of parallel unrelated machines in order to minimize the makespan. Each job has an individual runtime and causes a deterioration on the machine that makes the runtimes of the next jobs rise by a cumulative factor. Maintenances, which have significant runtimes, can be scheduled between two jobs, making the machine recover its full performance. Overall, the contributions of this thesis lie in the proposal of algorithms and software to solve very complex routing and scheduling problems deriving from real-world decision problems.
APA, Harvard, Vancouver, ISO, and other styles
16

SANNA, DANIELA. "Il pensiero algebrico:questioni di natura epistemologica e didattica." Doctoral thesis, Università degli Studi di Cagliari, 2016. http://hdl.handle.net/11584/266669.

Full text
Abstract:
The subject of this thesis is the study of the birth of algebraic thinking, as a generalization process, in 10 to 14 years old pupils. We analyse the relationships between the ways of describing a general algorithm, the strategies applied in solving arithmetical-algebraic problems and verbal and symbolic languages. As a result of the study, we can confirm that the causes of some difficulties in learning elementary algebra are due to a didactic obstacle rather than to an ontogenic obstacle. Furthermore, we have found some features of didactical activity in classroom that can further or prevent generalization processes.
APA, Harvard, Vancouver, ISO, and other styles
17

PIZZUTI, ANDREA. "Pricing-based primal and dual bounds for selected packing problems." Doctoral thesis, Università Politecnica delle Marche, 2020. http://hdl.handle.net/11566/273679.

Full text
Abstract:
Un ampio insieme di problemi di ottimizzazione richiedono l’individuazione di soluzioni che definiscono un packing di elementi, al fine di massimizzare (minimizzare) la relativa funzione obiettivo. Risolvere all’ottimo alcuni di questi problemi può essere estremamente oneroso a causa della loro complessità innata e le corrispondenti formulazioni intere possono non essere appropriate per approcciare istanze di dimensioni rilevanti. Pertanto, il calcolo di bound primali e duali qualitativamente validi necessita della definizione di tecniche ingegnose ed efficaci. Una metodologia valevole consiste nell’impiego di algoritmi basati su pricing, in cui le componenti delle soluzioni sono generate tramite la risoluzione di sottoproblemi di ottimizzazione specifici. Due principali esponenti di questa famiglia sono la procedura delayed column generation (CG) e l’euristica sequential value correction (SVC): la prima fornisce un bound duale basato sulla generazione delle colonne implicite tramite la valutazione dei prezzi ombra di variabili nascoste; la seconda esplora lo spazio delle soluzioni primali seguendo la dinamica di prezzi approssimati. In questa tesi ci concentriamo sull’applicazione di tecniche SVC e CG per l’individuazione di bound primali e duali per problemi di packing selezionati. In particolare, studiamo i problemi appartenenti alla famiglia del cutting e packing, dove i ben noti BIN PACKING e CUTTING STOCK sono arricchiti con caratteristiche derivanti dagli ambienti produttivi reali. Inoltre, studiamo il problema della MAXIMUM γ-QUASI-CLIQUE in cui si cerca la γ-quasi-clique indotta che massimizzi il numero di vertici selezionati. Risultati computazionali sono presentati al fine di validare le performance degli algoritmi implementati.
Several optimization problems ask for finding solutions which define packing of elements while maximizing (minimizing) the objective function. Solving some of these problems can be extremely challenging due to their innate complexity and the corresponding integer formulations can be not suitable to be solved on instances of relevant size. Thus, clever techniques must be devised to achieve good primal and dual bounds. A valid way is to rely on pricing-based algorithms, in which solution components are generated by calling and solving appropriate optimization subproblems. Two main exponents of this group are the delayed column generation (CG) procedure and the sequential value correction (SVC) heuristic: the former provides a dual bound based on the generation of implicit columns by examining the shadow prices of hidden variables; the latter explores the primal solution space by following the dynamic of approximate prices. In this thesis we focus on the application of SVC and CG techniques to find primal and dual bounds for selected packing problems. In particular, we study problems belonging to the family of cutting and packing, where the classical BIN PACKING and CUTTING STOCK are enriched with features derived from the real manufacturing environment. Moreover, the MAXIMUM γ-QUASI-CLIQUE problem is taken into account, in which we seek for the induced γ-quasi-clique with the maximum number of vertices. Computational results are given to assess the performance of the implemented algorithms.
APA, Harvard, Vancouver, ISO, and other styles
18

Furieri, Luca. "Teoria del consenso e applicazione al problema del coordinamento del moto di robot." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7556/.

Full text
Abstract:
Il sempre crescente numero di applicazioni di reti di sensori, robot cooperanti e formazioni di veicoli, ha fatto sì che le problematiche legate al coordinamento di sistemi multi-agente (MAS) diventassero tra le più studiate nell’ambito della teoria dei controlli. Esistono numerosi approcci per affrontare il problema, spesso profondamente diversi tra loro. La strategia studiata in questa tesi è basata sulla Teoria del Consenso, che ha una natura distribuita e completamente leader-less; inoltre il contenuto informativo scambiato tra gli agenti è ridotto al minimo. I primi 3 capitoli introducono ed analizzano le leggi di interazione (Protocolli di Consenso) che permettono di coordinare un Network di sistemi dinamici. Nel capitolo 4 si pensa all'applicazione della teoria al problema del "loitering" circolare di più robot volanti attorno ad un obiettivo in movimento. Si sviluppa a tale scopo una simulazione in ambiente Matlab/Simulink, che genera le traiettorie di riferimento di raggio e centro impostabili, a partire da qualunque posizione iniziale degli agenti. Tale simulazione è stata utilizzata presso il “Center for Research on Complex Automated Systems” (CASY-DEI Università di Bologna) per implementare il loitering di una rete di quadrirotori "CrazyFlie". I risultati ed il setup di laboratorio sono riportati nel capitolo 5. Sviluppi futuri si concentreranno su algoritmi locali che permettano agli agenti di evitare collisioni durante i transitori: il controllo di collision-avoidance dovrà essere completamente indipendente da quello di consenso, per non snaturare il protocollo di Consenso stesso.
APA, Harvard, Vancouver, ISO, and other styles
19

VEZZALI, DARIO. "Ottimizzazione integrata e sistemi a supporto delle decisioni per problemi di consegne e servizi a domicilio." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2023. https://hdl.handle.net/11380/1298349.

Full text
Abstract:
La presente tesi di ricerca analizza la classe dei problemi di consegne e servizi a domicilio, che sono stati ampiamente studiati nell'ultimo ventennio. Inoltre, la recente pandemia da COVID-19 ha aumentato enormemente l'interesse in tema di consegne e servizi a domicilio, con un consistente incremento della domanda globale e un evidente cambiamento nelle abitudini delle persone. Da un punto di vista operativo, tali problemi richiedono la presenza del cliente per la consegna dei beni o l'esecuzione del servizio a domicilio. Lo scopo principale di questa tesi di ricerca riguarda l'analisi accurata dello stato dell'arte sui problemi di consegne e servizi a domicilio, e lo studio di specifiche applicazioni reali nel settore della distribuzione dell'acqua e del gas, e nell'ambito delle aziende "global service". In particolare, viene studiato come risolvere problemi reali di ottimizzazione per mezzo di sistemi a supporto delle decisioni, basati su formulazioni matematiche del problema e moduli aggiuntivi. Questo richiede un'attenta definizione del problema, attraverso la formulazione della funzione obiettivo e dei principali vincoli, seguita dall'implementazione esatta o euristica e conclusa con una serie di test computazionali volti alla generazione di soluzioni efficaci ed efficienti. Questo processo iterativo richiede un altrettanto attenta fase di raccolta dati, e relativa preparazione, in modo da processare tutte le informazioni rilevanti che incorrono nel processo decisionale. La metodologia proposta integra tecniche classiche proprie della ricerca operativa con il machine learning, per la previsione di informazioni mancanti relative a periodi futuri, l'analisi decisionale multi-criterio, per la definizione e il calcolo dei pesi dei molteplici criteri da considerare nel prendere una decisione complessa, e l'"engineering economics", per la valutazione di un progetto da una prospettiva finanziaria.
This research addresses the class of attended home delivery and service problems, which have been widely studied in the last two decades. In addition, The recent COVID-19 pandemic has boosted the interest in attended home delivery and service, with a significant increase in terms of global demand and a still lasting effect on people's habits. From an operational perspective, such problems require the customer to be present at home when the goods are delivered or the service is executed. Typically, the service provider and the customer agree on a particular time window for the delivery of goods or the execution of a service. The purpose of this research is to review the state of the art for attended home delivery and service problems, and study specific real-world applications in gas and water distribution, as well as in the context of global service providers. In particular, the solution of real-world optimization problems through integrated decision support systems, which rely on mathematical formulations plus additional modules, is investigated. This requires a careful problem definition, in order to clearly state the objective function and the main constraints of the application at hand, followed by the implementation in an exact or heuristic fashion, and ended with several computational experiments aimed at producing valuable solutions. This iterative process implies a preliminary real-data collection and preparation, which has to be performed as carefully, in order to compute all the relevant information that occurs in the decision-making process. The proposed methodology integrates classic techniques of operations research with machine learning, to predict missing information for future periods, multi-criteria decision analysis, to define and weight the multiple factors that determine a complex decision, and engineering economics, to evaluate a project from a financial perspective.
APA, Harvard, Vancouver, ISO, and other styles
20

FRANCHINI, Giorgia. "Selezione degli iperparametri nei metodi di ottimizzazione stocastica." Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1237616.

Full text
Abstract:
Nel contesto del Deep Learning, la fase computazionalmente più costosa è l’addestramento completo dell'algoritmo di apprendimento. Infatti, la progettazione di un nuovo algoritmo di apprendimento richiede un'estesa indagine numerica con l'esecuzione di un numero significativo di prove sperimentali. Un aspetto fondamentale nella progettazione di un adeguato algoritmo di apprendimento è la selezione degli iperparametri (parametri che non vengono addestrati durante il processo di apprendimento), in modo statico o adattivo. Lo scopo di questa tesi è quello di indagare le strategie di selezione degli iperparametri, sui quali sono basati gli algoritmi standard di machine learning. In particolare, ci interessano le diverse tecniche di selezione dei parametri dei metodi del gradiente stocastico utilizzati per l'addestramento delle metodologie di machine learning. Gli scopi principali che motivano questo studio sono l’incremento dell’accuratezza (o altre metriche adatte a valutare la metodologia analizzata) e l'accelerazione della velocità di convergenza degli schemi iterativi di ottimizzazione. Per raggiungere questi scopi, l'analisi si è concentrata principalmente sulla scelta dei parametri fondamentali (iperparametri) nei metodi del gradiente stocastico: la lunghezza del passo, la dimensione del minibatch e il potenziale impiego di tecniche di riduzione della varianza. In un primo approccio abbiamo considerato separatamente la scelta della lunghezza di passo e della dimensione del minibatch; in seguito, si è presentata una tecnica che combina le due scelte. Per quel che riguarda la selezione della lunghezza di passo, si propone di adattare ai metodi stocastici la selezione della lunghezza di passo adottata nel metodo del gradiente noto come metodo Limited Memory Steepest Descent. Questa strategia, basata sui valori di Ritz di una opportuna matrice, permette di dare una stima locale dell'inverso del parametro di Lipschitz. Per quanto riguarda la dimensione del minibatch, l'idea è quella di aumentarla dinamicamente, in modo adattativo (tramite l’utilizzo di test di validazione). Gli esperimenti dimostrano che questa strategia adattativa è più efficiente (in termini di tempo e costi) rispetto agli approcci disponibili in letteratura. Come ulteriore sviluppo, le due scelte dei parametri (lunghezza di passo e dimensione del minibatch) sono state combinate in uno schema adattativo, senza introdurre tecniche di ricerca in linea ma utilizzando l’eventuale incremento della dimensione del minibatch usato nel calcolo del gradiente stocastico, per controllare la varianza della direzione di discesa. Nella seconda parte della tesi si è introdotta una tecnica di Automatic Machine Learning (AutoML) per fissare questi parametri. In particolare, si propone una strategia a basso costo per predire l'accuratezza dell'algoritmo di apprendimento, basata solo sul suo comportamento iniziale. Le accuraratezze iniziali e finali osservate durante questo processo preliminare vengono memorizzate in un database ed utilizzate come training set di un algoritmo di apprendimento Support Vector Machines. L'obiettivo è quello di predire l'accuratezza di una metodologia, considerandone solo i valori nelle iterate iniziali. In altre parole, attraverso un'esplorazione probabilistica dello spazio degli iperparametri, si è in grado di trovare la configurazione degli iperparametri che fornisce una precisione ottimale con un basso costo computazionale. Viene presentata un'ampia sperimentazione numerica che ha coinvolto funzioni convesse e non convesse (in particolare le Reti Neurali Convolutive). Per gli esperimenti numerici sono stati utilizzati diversi dataset ben noti in letteratura, per diversi problemi quali: classificazione, segmentazione e regressione. Infine, è stata condotta un’ulteriore sperimentazione finalizzata ad estendere gli approcci proposti ad altri metodi, come ad esempio Momentum, ADAM e SVRG.
In the context of deep learning, the computational more expensive phase is the full training of the learning algorithm. Indeed the design of a new learning algorithm requires an extensive numerical investigation with the execution of a significant number of experimental trials. A fundamental aspect in designing a suitable learning algorithm is the selection of the hyperparameters (parameters that are not trained during the learning process), in a static or adaptive way. The aim of this thesis is to investigate the hyperparameters selection strategies on which standard machine learning algorithms are designed. In particular, we are interested in the different techniques to select the parameters related to the stochastic gradient methods used for training the machine learning methodologies. The main purposes that motivate this study are the improvement of the accuracy (or other metrics suitable for evaluating the inspected methodology) and the acceleration of the convergence rate of the iterative optimization schemes. To achieve these purposes, the analysis has mainly focused on the choice of the fundamental parameters (hyperparameters) in the stochastic gradient methods: the steplength, the minibatch size and the potential adoption of variance reduction techniques. In a first approach we considered separately the choice of steplength and minibatch size; then, we presented a technique that combines the two choices. About the steplength selection, we propose to tailor for the stochastic gradient iteration the steplength selection adopted in the full-gradient method known as Limited Memory Steepest Descent method. This strategy, based on the Ritz-like values of a suitable matrix, enables to give a local estimate of the inverse of the local Lipschitz parameter. Regarding the minibatch size the idea is to increasing dynamically, in an adaptive manner (based on suitable validation tests), this size. The experiments show that this training strategy is more efficient (in terms of time and costs) compared with the approaches available in literature. We combine the two parameter choices (steplength and minibatch size) in an adaptive scheme without introducing line search techniques, while the possible increase of the size of the subsample used to compute the stochastic gradient enables to control the variance of this direction. In the second part of the thesis, we introduce an Automatic Machine Learning (AutoML) technique to set these parameters. In particular, we propose a low-cost strategy to predict the accuracy of the learning algorithm, based only on its initial behavior. The initial and final accuracies observed during this beforehand process are stored in a database and used as training set of a Support Vector Machines learning algorithm. The aim is to predict the accuracy of a learning methodology, given its accuracy on the initial iterations of its learning process. In other word, by a probabilistic exploration of the hyperparameter space, we are able to find the setting providing optimal accuracies at a quite low cost. An extensive numerical experimentation was carried out involving convex and non-convex functions (in particular Convolutional Neural Networks). For the numerical experiments several datasets well known in literature have been used, for different problems such as: classification, segmentation, regression. Finally, a computational study is carried out to extend the proposed approaches to other methods, such as: Momentum, ADAM, SVRG. In conclusion, the contribution of the thesis consists in providing useful ideas about an effective and inexpensive selection of the hyperparameters in the class of the stochastic gradient methods.
APA, Harvard, Vancouver, ISO, and other styles
21

Pinton, Stefano. "Regularity of the dbar-Neumann problem and the Green operator." Doctoral thesis, Università degli studi di Padova, 2012. http://hdl.handle.net/11577/3426289.

Full text
Abstract:
This thesis deals with the regularity of the dibar-Neumann problem and the tangential Cauchy-Riemann system. Chapter 1 deals with compactness estimates. We prove that they hold when "(CR P-property)" is satisfied. The approach consists of a tangential basic estimate in the formulation given by Khanh in his thesis which refines former work by Nicoara. Chapter 2 discusses regularity of the dibar-Neumann problem. The first approach to regularity in geometric terms has been done by Boas Straube through the method of the "good vector field" T or "good defining function" r. On the one hand, this condition yields regularity; on the other this condition is fulfilled, if there exists a plurisubharmonic defining function r. The vector field condition has been weekened by Straube to a multiplier condition. We substitute this condition with a quantified one. Chapter 3 deals with Hypoellipticity for vector fields and sums of squares with loss of derivatives. Our contribute deals with exponential type vector fields instead of finite type vector fields.
Questa tesi tratta la regolarità del problema dibar-Neumann e del sistema di Cauchy-Riemann tangenziale. Nel capitolo 1 si discute delle stime di compattezza. Si prova qui che esse sussistono in presenza della"(CR P-property)". Il nostro approccio si basa su una stima di base stabilita da T.V. Khanh che migliora risultati precedenti di A. Nicoara. Il Capitolo 2 tratta la regolarità del problema dibar-Neumann in assenza di stime di compattezza. Il primo approccio consiste nella condizione di ``buon campo vettore T" o ``buona funzione definitoria r. Da un lato questa condizione dà regolarità; dall'altro, essa è soddisfatta quando c'è una funzione definitoria plurisubarmonica r. La condizione di campo vettore è stata sostituita da una più debole condizione di tipo "moltiplicatore". Noi riprendiamo questa condizione e ne diamo una versione "quantificata". Il capitolo 3 tratta l'ipoellitticità con perdita di derivate sia per campi vettoriali sia per somme di quadrati. Il nostro contributo consiste nel trattare campi vettoriali modificati da campi di tipo esponenziale anzichè, classicamente, di tipo finito.
APA, Harvard, Vancouver, ISO, and other styles
22

Violin, Alessia. "Mathematical programming approaches to pricing problems." Doctoral thesis, Università degli studi di Trieste, 2014. http://hdl.handle.net/10077/10863.

Full text
Abstract:
2012/2013
There are many real cases where a company needs to determine the price of its products so as to maximise its revenue or profit. To do so, the company must consider customers’ reactions to these prices, as they may refuse to buy a given product or service if its price is too high. This is commonly known in literature as a pricing problem. This class of problems, which is typically bilevel, was first studied in the 1990s and is NP-hard, although polynomial algorithms do exist for some particular cases. Many questions are still open on this subject. The aim of this thesis is to investigate mathematical properties of pricing problems, in order to find structural properties, formulations and solution methods that are as efficient as possible. In particular, we focus our attention on pricing problems over a network. In this framework, an authority owns a subset of arcs and imposes tolls on them, in an attempt to maximise his/her revenue, while users travel on the network, seeking for their minimum cost path. First, we provide a detailed review of the state of the art on bilevel pricing problems. Then, we consider a particular case where the authority is using an unit toll scheme on his/her subset of arcs, imposing either the same toll on all of them, or a toll proportional to a given parameter particular to each arc (for instance a per kilometre toll). We show that if tolls are all equal then the complexity of the problem is polynomial, whereas in case of proportional tolls it is pseudo-polynomial. We then address a robust approach taking into account uncertainty on parameters. We solve some polynomial cases of the pricing problem where uncertainty is considered using an interval representation. Finally, we focus on another particular case where toll arcs are connected such that they constitute a path, as occurs on highways. We develop a Dantzig-Wolfe reformulation and present a Branch-and-Cut-and-Price algorithm to solve it. Several improvements are proposed, both for the column generation algorithm used to solve the linear relaxation and for the branching part used to find integer solutions. Numerical results are also presented to highlight the efficiency of the proposed strategies. This problem is proved to be APX-hard and a theoretical comparison between our model and another one from the literature is carried out.
Un problème classique pour une compagnie est la tarification de ses produits à vendre sur le marché, de façon à maximiser les revenus. Dans ce contexte, il est important que la société prenne en compte le comportement de ses clients potentiels, puisque si le prix est trop élevé, ils peuvent décider de ne rien acheter. Ce problème est communément connu dans la littérature comme un problème de tarification ou "pricing". Une approche de programmation biniveau pour ce problème a été introduite dans les années 90, révélant sa difficulté. Cependant, certains cas particuliers peuvent être résolus par des algorithmes polynomiaux, et il y a encore de nombreuses questions ouvertes sur le sujet. Cette thèse de doctorat porte sur les propriétés mathématiques des problèmes de tarification, fixant l’objectif de déterminer différentes formulations et méthodes de résolution les plus efficaces possibles, en se concentrant sur les problèmes appliqués aux réseaux de différents types. Dans les problèmes de tarification sur réseau, nous avons deux entités : une autorité qui possède un certain sous-ensemble d’arcs, et impose des péages, avec l’intention de maximiser les revenus provenant de celle-ci, et des utilisateurs qui choisissent leur chemin de moindre coût sur l’ensemble du réseau. Dans la première partie de la thèse une analyse détaillée de l’état de l’art sur les problèmes de tarification biniveau est présentée, suivie, dans la deuxième partie, par une analyse de cas particuliers polynomiaux. En particulier, nous considérons le cas où l’autorité utilise un péage unitaire sur son sous-ensemble d’arcs, soit en choisissant le même péage sur chaque arc, soit en choisissant un péage proportionnel à un paramètre donné pour chaque arc (par exemple, un péage par kilomètre). Dans le premier cas de péages égaux, il est démontré que la complexité du problème est polynomiale, tandis que dans le second cas de péages proportionnels, elle est pseudo-polynomiale. Ensuite, nous présentons une première approche d’optimisation robuste pour les problèmes de tarification sur réseau, de manière à inclure de l’incertitude sur la valeur exacte des paramètres dans le modèle, qui est typique dans les problèmes réels. Cette incertitude est représentée en utilisant des intervalles pour les paramètres et nous proposons, pour certains cas, des algorithmes de résolution polynomiaux. La troisième et dernière partie de la thèse concerne un cas difficile, le problème de tarification sur réseau dans lequel les arcs sont connectés de manière à constituer un chemin, comme c’est le cas pour les autoroutes. Initialement, nous prouvons que ce problème est APX-dur, renforçant le résultat connu jusqu’à maintenant. Ensuite, nous présentons des nouvelles formulations plus fortes, et en particulier, nous développons une reformulation de type Danztig-Wolfe, résolue par un algorithme de Branch-and-Cut-and-Price. Enfin, nous proposons différentes stratégies pour améliorer les performances de l’algorithme, pour ce qui concerne l’algorithme de génération de colonnes utilisé pour résoudre la relaxation linéaire, et pour ce qui concerne la résolution du problème avec variables binaires. Les résultats numériques complètent les résultats théoriques, en mettant en évidence l’efficacité des stratégies proposées.
Un classico problema aziendale è la determinazione del prezzo dei prodotti da vendere sul mercato, in modo tale da massimizzare le entrate che ne deriveranno. In tale contesto è importante che l’azienda tenga in considerazione il comportamento dei propri potenziali clienti, in quanto questi ultimi potrebbero ritenere che il prezzo sia troppo alto e decidere dunque di non acquistare. Questo problema è comunemente noto in letteratura come problema di tariffazione o di “pricing”. Tale problema è stato studiato negli anni novanta mediante un approccio bilivello, rivelandone l’alta complessità computazionale. Tuttavia alcuni casi particolari possono essere risolti mediante algoritmi polinomiali, e ci sono sono ancora molte domande aperte sull’argomento. Questa tesi di dottorato si focalizza sulle proprietà matematiche dei problemi di tariffazione, ponendosi l’obiettivo di determinarne formulazioni e metodi risolutivi più efficienti possibili, concentrandosi sui problemi applicati a reti di vario tipo. Nei problemi di tariffazione su rete si hanno due entità: un’autorità che possiede un certo sottoinsieme di archi e vi impone dei pedaggi, con l’intento di massimizzare le entrate che ne derivano, e gli utenti che scelgono il proprio percorso a costo minimo sulla rete complessiva (a pedaggio e non). Nella prima parte della tesi viene affrontata una dettagliata analisi dello stato dell’arte sui problemi di tariffazione bilivello, seguita, nella seconda parte, dall’analisi di particolari casi polinomiali del problema. In particolare si considera il caso in cui l’autorità utilizza uno schema di pedaggio unitario sul suo sottoinsieme di archi, imponendo o lo stesso pedaggio su ogni arco, o un pedaggio proporzionale a un dato parametro relativo ad ogni arco (ad esempio un pedaggio al chilometro). Nel primo caso di pedaggi uguali, si dimostra che la complessità del problema è polinomiale, mentre nel secondo caso di pedaggi proporzionali è pseudo-polinomiale. In seguito viene affrontato un approccio di ottimizzazione robusta per alcuni problemi di tariffazione su rete, in modo da includere nei modelli un’incertezza sul valore esatto dei parametri,tipica dei problemi reali. Tale incertezza viene rappresentata vincolando i parametri in degli intervalli e si propongono, per alcuni casi, algoritmi risolutivi polinomiali. La terza e ultima parte della tesi riguarda un caso computazionalmente difficile, in cui gli archi tariffabili sono connessi in modo tale da costituire un cammino, come avviene per le autostrade. Inizialmente si dimostra che tale problema è APX-hard, rafforzando il risultato finora conosciuto. In seguito si considerano formulazioni piùforti, e in particolare si sviluppa una riformulazione di Danztig-Wolfe, risolta tramite un algoritmo di Branch-and-Cut-and-Price. Infine si propongono diverse strategie per migliorare le performance dell’algoritmo, sia per quanto riguarda l’algoritmo di generazione di colonne utilizzato per risolvere il rilassamento lineare, sia per quanto riguarda la risoluzione del problema con variabili binarie. Risultati numerici complementano quelli teorici ed evidenziano l’efficacia delle strategie proposte.
XXV Ciclo
1985
APA, Harvard, Vancouver, ISO, and other styles
23

Brigandì, Camilla. "Utilizzo della omologia persistente nelle reti neurali." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2022.

Find full text
Abstract:
Lo scopo di questa tesi è quello di introdurre alcune applicazioni della topologia algebrica, e in particolare della teoria dell’omologia persistente, alle reti neurali. A tal fine, nel primo capitolo dell’elaborato vengono introdotti i concetti di neurone e rete neurale artificiale. Viene posta particolare attenzione sull’addestramento di una rete, spiegando anche delle problematiche e delle caratteristiche ad esso legate, come il problema dell’overfitting e la capacità di generalizzazione. All’interno dello stesso capitolo vengono anche esposti il concetto di similarità tra due reti e il concetto di pruning, e vengono definiti rigorosamente i problemi di classificazione. Nel secondo capitolo vengono introdotte le nozioni basilari relative all’omologia persistente, vengono forniti degli strumenti utili alla visualizzazione e comparazione di tali nozioni (i barcodes e i diagrammi di persistenza), e vengono esposti dei metodi per la costruzione di complessi simpliciali a partire da grafi o insiemi di punti in R^d. Nel terzo e ultimo capitolo vengono riportati i risultati di applicazione cui ci si riferiva all’inizio dell’abstract. In particolare, vengono esposte delle ricerche basate sull’utilizzo dell’omologia persistente riguardanti la creazione di misure di espressività e similarità di architetture neurali, la messa a punto di un metodo di pruning, la creazione di una rete neurale resistente agli adversarial attacks di misura data, e alcuni risultati sulla modifica topologica dei dati che vengono elaborati da un’architettura neurale.
APA, Harvard, Vancouver, ISO, and other styles
24

CISTERNINO, MARCO. "A parallel second order Cartesian method for elliptic interface problems and its application to tumor growth model." Doctoral thesis, Politecnico di Torino, 2012. http://hdl.handle.net/11583/2497156.

Full text
Abstract:
This theses deals with a parallel Cartesian method to solve elliptic problems with complex interfaces and its application to elliptic irregular domain problems in the framework of a tumor growth model. This method is based on a finite differences scheme and is second order accurate in the whole domain. The originality of the method lies in the use of additional unknowns located on the interface, allowing to express the interface transmission conditions. The method is described and the details of its parallelization, performed with the PETSc library, are provided. Numerical validations of the method follow with comparisons to other related methods in literature. A numerical study of the parallelized method is also given. Then, the method is applied to solve elliptic irregular domain problems appearing in a three-dimensional continuous tumor growth model, the two-species Darcy model. The approach used in this application is based on the penalization of the interface transmission conditions, in order to impose homogeneous Neumann boundary conditions on the border of an irregular domain. The simulations of model are provided and they show the ability of the method to impose a good approximation of the considered boundary conditions.
APA, Harvard, Vancouver, ISO, and other styles
25

BONENTI, FRANCESCA. "La matematica come occasione e stimolo per la formulazione di un giudizio critico." Doctoral thesis, Università degli studi di Bergamo, 2013. http://hdl.handle.net/10446/28639.

Full text
Abstract:
The thesis develops an analysis of the scientific knowledge construction based on a psychological description of the mental procedures which in our mind help to construct the mathematical thought. The analysis was carried on in the Part I of the thesis and was supported by a deep insight in the scientific research experience concerning mathematics. This research was the opportunity for the personal encounter with the mathematical discipline and gave also the possibility and ispiration to question the meaning of the mathematical thinking and the reliability of its cognitive procedures. In Part II the results of psychological and cognitive experience of the scientific research, discussed in Part I, have been described in details. The results of the scientific research, both in basic and applied fields of mathematics, has been described in different papers appeared in national and international journals and are collected in the thesis' appendix.
APA, Harvard, Vancouver, ISO, and other styles
26

RICCA, Federica. "Metodi Combinatori per Problemi di Aggregazione e Partizione con Criteri Multipli." Doctoral thesis, 1998. http://hdl.handle.net/11573/618259.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

ORLANDI, Giandomenico. "Alcuni problemi variazionali geometrici suggeriti dalla Fisica." Doctoral thesis, 1997. http://hdl.handle.net/11562/347430.

Full text
Abstract:
Studiamo alcuni problemi variazionali in cui sono rilevanti alcuni aspetti geometrici (vincoli omotopici/omologici, ambientazione in spazi fibrati). Tali problemi modellizzano svariati fenomeni fisici, come le transizioni di fase negli stati condensati alle basse temperature (modelli di Allen-Cahn o Ginzburg-Landau), ovvero i modelli di Higgs ableiani in Fisica delle particelle. Caratterizziamo il comportamento asintotico delle configurazioni di equilibrio dei sistemi, ossia dei minimi globali dei funzionali coinvolti, che presentano fenomeni di concentrazione su superfici di codimensione uno o due di area minima.
We deal with some variational problems with geometrical constraints of homological or homotopical type, or in fiber bundle ambients. These models arise in condensed matter Physics to describe phase transitions at low temperature (Allen-Cahn or Ginzburg-Landau models), and also in particle Physics (abelian Higgs models). We characterize the asymptotic behavior of equilibrium configurations, corresponding to global minimizers of the involved functionals, whose energy concentrate on codimension one or two minimal surfaces.
APA, Harvard, Vancouver, ISO, and other styles
28

PEZZA, Laura. "Su un modello di Hele-Shaw dipendente dalla temperatura." Doctoral thesis, 1996. http://hdl.handle.net/11573/484674.

Full text
Abstract:
Si costruisce un modello per l'iniezione di un fluido in una cella di Hele-Shaw. Si studiano le proprietà di esistenza ed unicità della soluzione del problema di equazioni differenziali di tipo parabolico e di trasporto, con condizione integro differenziale sull'interfaccia, che descrivono il problema fisico.
We constructed a model for the injection of a fluid in a Hele-Shaw cell and we study the properties of existence and uniqueness of the differential problem solution. These equations are of parabolic and transport kind, with an integral differential condition on the interface.
APA, Harvard, Vancouver, ISO, and other styles
29

SBRANA, ALESSANDRO. "Faculty Development Centri di Professionalità Accademica (CPA)." Doctoral thesis, 2018. http://hdl.handle.net/11393/251175.

Full text
Abstract:
mondo universitario ha subito un’ondata di cambiamenti che si possono ricondurre alla ricerca dell’eccellenza, declinata secondo le due dimensioni della valutazione e della rendicontazione. Tre sono quelli più evidenti: il primo, il passaggio da una ricerca curiosity driven a una ricerca funzionale al raggiungimento di risultati valutabili in tempi brevi; dalla ricerca pura a quella applicata, da un approccio problem-making a uno problem-solving, da una conoscenza come processo a una conoscenza come prodotto, da un modello disinteressato a uno utilitaristico (Barnett, 1994); il secondo, riguardante l’offerta formativa: dal momento che si è modificato il modo di concepire l’apprendimento; i curricula tendono a essere definiti in termini di risultati di apprendimento predefiniti (Blackmore, 2016); il terzo, peculiare della struttura amministrativa: dal momento in cui sono divenute essenziali una serie di nuove sovrastrutture (programmazione, valutazione, controlli, comunicazione) rispetto al mandato originario della struttura universitaria si registra un aumento consistente del personale delle strutture amministrative. Questi cambiamenti devono fare i conti con la perdita di prestigio della vita accademica, il cambiamento del ruolo dello studente, che è diventato sempre più importante e l’aumento delle procedure burocratiche che rischiano di ingessare un sistema un tempo caratterizzato da un’elevata autonomia. Per consentire alle strutture universitarie di affrontare le sfide culturali a partire dagli anni Settanta nelle università nord-americane si sono strutturate iniziative finalizzate allo sviluppo e alla promozione di una migliore offerta formativa. Tali iniziative vengono definite con l’espressione Faculty Development (FD), una policy accademica finalizzata a creare le condizioni per un miglioramento delle competenze di tutti coloro che sono coinvolti nelle attività svolte in un ateneo. Nella realtà italiana emerge la mancanza di una vera politica di formazione al teaching per i ricercatori e i docenti universitari, per non parlare dell’esigenza di superare il pregiudizio, di gentiliana memoria, secondo il quale non è necessario apprendere a insegnare, ma sia sufficiente avere successo nella ricerca, cui si aggiunge nell’ultimo decennio una continua e affannata richiesta al personale accademico di azioni organizzative, valutative e documentali, che assorbono tempo e energie senza il supporto di adeguati apparati gestionali e senza predisporre indagini valutative capaci di misurare l’effettivo esito di tutte queste azioni. L’effetto finale è un evidente declino (Capano et al., 2017) dell’istituzione universitaria. Si può ipotizzare che la cultura del organizzazione propria del Faculty Development possa contribuire nel contesto italiano a fornire azioni a supporto del cambiamento: è quanto mai essenziale dotare gli atenei di risorse funzionali a riqualificare la vita accademica, fornendo al personale accademico gli strumenti necessari per performare una buona scholarship, realizzare un’efficace offerta formativa e attuare adeguate forme di terza missione, capaci di incrementare la vita culturale della comunità. Il presente studio si propone come un’analisi sistematica della letteratura sul tema del Faculty Development, che persegue l’obiettivo di sviluppare una disamina estesa dell’oggetto, in modo che l’esplicitazione della datità raccolta fornisca un’analisi del fenomeno che possa essere di supporto a un’avveduta educational policy nel campo della formazione universitaria. Nel contesto italiano ad oggi non esiste una cultura di attenzione ai contesti di apprendimento universitario. L’offerta formativa è concepita come offerta di pacchetti curriculari e la predisposizione delle condizioni di apprendimento per il conseguimento del titolo universitario si risolve nella organizzazione di una serie di lezioni, frontali o laboratoriali, senza che tutto questo sia innervato da una specifica intenzionalità didattica. Questa immagine poco confortante non intende affatto trascurare tutti i casi di buone prassi sviluppati nei vari corsi di studio, ma il buono che emerge è demandato all’impegno del singolo, senza che l’istituzione universitaria si interroghi sul come predisporre le condizioni per il potenziamento della qualità dei processi di apprendimento. A fronte di questa situazione la necessità di migliorare la qualità dell’insegnamento non è mai stata così stringente e sfidante come lo è oggi, in un clima di continuo cambiamento della formazione superiore. Nuove tendenze definiscono la formazione superiore, attraversando confini istituzionali e nazionali. Essi influiscono sul modo in cui un insegnamento efficace viene concettualizzato, condotto e supportato, valutato, valorizzato e riconosciuto. È necessario affrontare temi quali l’inadeguata preparazione per il lavoro accademico nei corsi di studio magistrali, l’incapacità dei docenti a trasferire competenze, la crescente complessità degli ambienti accademici, le attese e le responsabilità istituzionali, la necessità di preparare meglio gli studenti con bisogni diversi, e la necessità di stare al passo con i balzi della conoscenza e i cambiamenti nelle professioni. Migliorare la qualità della didattica è inoltre essenziale perché consente di ridurre il numero degli abbandoni. È venuto il momento di transitare da un’offerta formativa di tipo episodico a una prospettiva di esperienze di apprendimento in continuità nel tempo, per accompagnare la formazione dei docenti in un modo strutturalmente organizzato (Webster-Wright, 2009). Sulla base della rilevazione fenomenica, sono emerse le seguenti domande di ricerca: che cosa è il FD? Cosa consente di fare? Come si mette in pratica? Quali sono le potenzialità? Quali sono i limiti? Il FD ha il compito di incentivare i docenti ad interessarsi ai processi di insegnamento e apprendimento e a procurare un ambiente sicuro e positivo nel quale fare ricerca, sperimentare, valutare e adottare nuovi metodi (Lancaster et al. 2014). È finalizzato a promuovere cambiamento sia a livello individuale sia a livello organizzativo. Occupa un posto centrale il miglioramento delle competenze di teaching (Steinert, 2014). Due importanti obiettivi sono rappresentati dalla promozione delle capacità di leadership e di gestione dei contesti (Steiner et al., 2012). Una volta definite le metodologie del teaching, che possono essere oggetto di apprendimento da parte del personale accademico, è risultato necessario identificare le principali modalità formative che un centro di Faculty Development (FDc) dovrebbe mettere in atto per favorire l’apprendimento delle competenze didattiche. Per comprenderne la funzione reale è stato utile prendere in esame le attività proposte dai più importanti centri del panorama accademico nordamericano, analizzandone la struttura organizzativa, le risorse disponibili ed identificandone le due figure principali: il responsabile dell’organizzazione dei processi formativi e il responsabile della struttura. L’analisi dei casi ha consentito di evidenziare i molteplici servizi che possono essere forniti da un FDc. Questa analisi di realtà è risultata molto utile poiché ha offerto indicazioni pragmatiche ai fini di una politica accademica innovativa anche in ambito italiano. Alla luce degli argomenti sviluppati è stato possibile ipotizzare anche per gli atenei italiani l’istituzione di “Centri per la professionalità accademica”, indicando possibili iniziative da essi realizzabili, che potrebbero trovare spazio nella realtà del nostro paese.
APA, Harvard, Vancouver, ISO, and other styles
30

GUIDI, Arianna. "Il reato a concorso necessario improprio." Doctoral thesis, 2018. http://hdl.handle.net/11393/251080.

Full text
Abstract:
Oggetto del presente lavoro è stata la tematica dei reati a concorso necessario (detti anche plurisoggettivi): una categoria penalistica scarsamente presa in considerazione da parte della dottrina e giurisprudenza più recenti, eppure dai risvolti sistematici di un certo rilievo, in quanto coinvolge profili sia di parte generale che speciale del diritto penale. L’indagine è partita dal piano definitorio e classificatorio: sono state riportate dettagliatamente le diverse tesi dottrinali sviluppatesi sul tema (suddivisibili in due macrocategorie, quella dei sostenitori di una concezione ampia di reato a concorso necessario e quella dei sostenitori di una concezione ristretta dello stesso), nonché le pronunce della Cassazione ritenute maggiormente significative. Un’attenzione particolare è stata dedicata alla delimitazione – in negativo – del campo d’indagine, tracciando le differenze intercorrenti fra i reati a concorso necessario (o plurisoggettivi, a seconda della terminologia impiegata) ed istituti ritenuti erroneamente contigui, primo fra tutti quello del concorso eventuale di persone nel reato. Dopodiché, all’interno del secondo capitolo si è scelto di riflettere sulle questioni maggiormente rilevanti e problematiche attinenti ai reati a concorso necessario impropri: in primis, la ratio che giustifica l’esenzione dalla pena in capo ad un soggetto; secondariamente, la possibilità di punire o meno la condotta tipica, nonché le eventuali condotte atipiche, poste in essere dal soggetto non punibile per mezzo dell’applicazione degli artt. 110 ss. c.p. in funzione incriminatrice. La panoramica di orientamenti dottrinali e giurisprudenziali quanto mai oscillanti e fra loro divergenti su questioni di particolare importanza, non è stata solo funzionale ad offrire al lettore una dettagliata ricognizione in generale, piuttosto, da questa è scaturita una vera e propria esigenza di (ri)considerare l’intera materia in modo organico e chiarificatore. Per tale ragione, nel terzo capitolo è stata introdotta una nuova definizione, in sostituzione a quella maggiormente impiegata da dottrina e giurisprudenza: “fattispecie incriminatrici normativamente plurisoggettive”. Una definizione idonea a ricomprendere tutti quegli illeciti penali che, a livello astratto, presentano caratteristiche simili: il riscontro di una pluralità di soggetti e di condotte quali elementi costitutivi del fatto tipico. Pertanto, si è cercato di individuare i confini della categoria assumendo quale criterio di partenza il piano normativo astratto, in considerazione del fatto che ciò che il legislatore ha scelto di codificare come tipo criminoso è dato dall’insieme degli elementi oggettivi e soggettivi, i quali compaiono nella descrizione della norma incriminatrice. La visione d’insieme ha permesso di non limitare l’attenzione al solo soggetto punibile, bensì di spostarla anche sul soggetto non punibile, il quale, con la sua condotta rientrante fra gli elementi oggettivi del fatto tipico, contribuisce alla configurabilità del reato. Infine, all’interno del quarto capitolo si è proceduto all’analisi dei principali reati classificati da parte della dottrina come a concorso necessario impropri, per verificare, tenuto conto della nuova definizione proposta, se possano o meno essere qualificati come fattispecie incriminatrici normativamente plurisoggettive improprie. Il confronto con la parte speciale ha permesso di evidenziare l’estrema delicatezza dell’operazione d’individuazione di fattispecie incriminatrici normativamente plurisoggettive (in senso lato): anzitutto, perché non sempre la pluralità di soggetti e di condotte costitutive del fatto tipico è oggetto di descrizione espressa, risultando alle volte ricavabile solo a seguito di un attento esame della tipologia e del significato delle parole impiegate dal legislatore; secondariamente, perché alle volte è facile lasciarsi confondere dal piano naturalistico della realtà concreta, mentre l’individuazione di una fattispecie incriminatrice in termini di plurisoggettività normativa dovrebbe avvenire, secondo l’impostazione adottata, a partire dal piano normativo astratto. Da ultimo, ci si è soffermati sul ruolo del soggetto non punibile che tenga rispettivamente la condotta tipica o una condotta ulteriore e diversa da quella descritta, cercando di offrire una possibile soluzione al problema. Nel primo caso, si è concluso per l’impossibilità di applicare l’art. 110 c.p. in funzione incriminatrice, pena la violazione delle garanzie proprie del sistema penalistico. Nel secondo, invece, si è concluso in senso affermativo, precisando che l’interprete è tenuto a prestare attenzione a diversi aspetti, fra cui il tipo d’equilibrio intercorrente fra le condotte dei soggetti parte della fattispecie incriminatrice normativamente plurisoggettiva impropria, nonché l’alterità effettiva della condotta atipica rispetto a quella descritta, pena la violazione dei principi di legalità, tipicità e certezza del diritto.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography