Academic literature on the topic 'Analisi qualità immagini'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Analisi qualità immagini.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Analisi qualità immagini"

1

Manfrè, L., C. Sarno, M. Laconi, A. Mangiameli, and R. Lagalla. "Fast Spin Echo e Spin-Echo." Rivista di Neuroradiologia 7, no. 4 (August 1994): 579–93. http://dx.doi.org/10.1177/197140099400700404.

Full text
Abstract:
Uno dei maggiori problemi connessi alio studio del SNC di pazienti in età pediatrica con RM è indubbiamente costituito dalla durata dell'esame stesso, che impone sovente la necessità di una sedazione farmacologica del paziente e limita allo stretto indispensabile il numero delle acquisizioni effettuate. Appare pertanto facilmente intuibile l'entusiasmo rivolto verso nuovi tipi di sequenze che presentino quale caratteristica principale una drastica riduzione dei tempi di acquisizione pur mantenendo un'affidabile qualità diagnostica. Le sequenze di tipo Fast-Spin-Echo (FSE) costituiscono il successivo sviluppo delle sequenze denominate RARE (Rapid Acquisition Relaxation Enhanced) descritte da Henning nel 1986, abbinando la semeiotica di segnale RM delle convenzionali sequenze in Spin-Echo (Conventional Spin-Echo o CSE), largamente più diffuse, al vantaggio di un rapido tempo di acquisizione (figure 1, 2). La sequenza FSE, tuttavia, per le caratteristiche tecniche che la contraddistinguono, non può essere considerata semplicisticamente come una sequenza Spin-Echo veloce: la sua applicazione nella pratica quotidiana merita pertanto — al pari di quanto già fatto per sequenze ormai diffusamente utilizzate quali la Spin-Echo e la Gradient-Echo — una approfondita analisi delle capacità intrinseche e delle potenzialità diagnostiche. Il nostro scopo è stato quello di esaminare comparativamente le immagini ottenute, mediante sequenze FSE e CSE, in 78 pazienti in età pediatrica, valutando non solo la qualità diagnostica delle Stesse (nel normale e nel patologico), ma effettuando anche una analisi quantitativa del segnale rilevato e del contrasto relativo esistente tra le diverse componenti tissutali visualizzate.
APA, Harvard, Vancouver, ISO, and other styles
2

Cimino, C., L. Chiapparini, M. G. Bruzzone, E. Ciceri, M. R. Carriero, and B. Lombardi. "Analisi della tecnica Angio-TC-3D nello studio delle steno-occlusioni carotidee." Rivista di Neuroradiologia 10, no. 2_suppl (October 1997): 115. http://dx.doi.org/10.1177/19714009970100s245.

Full text
Abstract:
L'angio-TC e le tecniche di ricostruzione tridimensionale su work-station sono strumenti che permettono di studiare la patologia steno-occlusiva dei vasi al collo, ottenendo informazioni sulla morfologia, sull'estensione delle placche ateromasiche e sull'entità delle stenosi. Mentre appare sempre più emergente il ruolo dell'angio-TC come esame di screening per tale patologia, in letteratura non vi è unanimità di giudizio sulla possibilità che questa tecnica, da sola o in associazione con altre non invasive, possa sostituire l'angiografia in previsione di un intervento chirurgico. Scopo di questo lavoro è analizzare la sensibilità, la specificità e l'accuratezza diagnostica di questa tecnica, comprensiva delle successive elaborazioni con programmi di ricostruzione tridimensionale, rispetto a metodiche più tradizionali quali l'angio-RM, l'eco-color-doppler, l'angiografia digitale. Dato il prevedibile aumento di richiesta di esecuzione di questo esame saranno inoltre presi in considerazione altri parametri. In primo luogo sarà considerato il rapporto tra il tempo complessivo dedicato sia all'esecuzione dell'esame (impostazione dei protocolli di acquisizione, scelta della regione di interesse, scelta dei corretti parametri di somministrazione del bolo) sia l'elaborazione delle immagini (scelta del programma di ricostruzione, del target, eventuale segmentazione) e la qualità e l'affidabilità del risultato rispetto ad altre tecniche. Verrà infine considerato il costo biologico dell'esame in termini di dose somministrata al paziente. Data la recente installazione presso il nostro servizio di un'apparecchiatura TC spirale e di work-station per elaborazioni 3D, MIP, MPR, etc., ci proponiamo di utilizzare per questo studio un campione di 20 pazienti con TIA o minor stroke. Tutti questi pazienti saranno sottoposti ad eco-color-doppler, angio-TC, angio-RM e angiografia digitale.
APA, Harvard, Vancouver, ISO, and other styles
3

Di Raimondo, F., G. A. Palumbo, P. Fiumara, G. Amato, D. Buglio, and R. Giustolisi. "Emangioma, plasmocitoma e mieloma multiplo del rachide." Rivista di Neuroradiologia 15, no. 4 (August 2002): 445–50. http://dx.doi.org/10.1177/197140090201500414.

Full text
Abstract:
Nel mieloma multiplo (MM) le lesioni osteolitiche interessano prevalentemente lo scheletro assiale e la colonna vertebrale è la sede più frequente. Tipicamente la lesione erode l'osso spugnoso lasciando relativamente intatta la corticale. Alle immagini RM sono stati descritti tre pattern che in ordine decrescente sono: focale, diffuso e variegato. La patogenesi delle lesioni osteolitiche è legata ad una azione locale delle plasmacellule e delle cellule midollari non neoplastiche, le quali producono una vasta gamma di citochine che in ultima analisi stimolano gli osteoclasti. Recenti ricerche hanno dimostrato che il rapporto RANKL/OPG è critico per l'attivazione osteoclastica mentre un altro importante fattore osteoclastogenico, il MIP-1α, sembra agire attraverso una via differente. La modalità migliore per valutare le lesioni osteolitiche rimane la semplice radiografia, anche se la RM ha mostrato una maggiore sensibilità e viene usualmente impiegata nei pazienti asintomatici per predire la possibilità di fratture o di progressione di malattia. Sul piano terapeutico, la chirurgia classica non riveste un ruolo importante, mentre la nuova metodica della vertebroplastica si sta facendo strada in tutte le istituzioni. La radioterapia è confinata ad alcuni casi particolari. Il presidio medico più impiegato è costituito dai bisfosfonati, sopratutto quelli di ultima generazione che hanno dato un contributo significativo alla terapia di supporto ed hanno sicuramente migliorato la qualità di vita di questi pazienti. Esistono inoltre rari tumori costituiti da vasi sanguigni aberranti che vanno sotto il nome di emangiomi o emangioteliomi. Sono per la maggior parte benigni, ma se ne conoscono anche di diversi gradi di malignità con tendenza a recidivare. Spesso sono asintomatici e costituiscono un reperto occasionale. Presentano un aspetto radiologico abbastanza tipico. Sono sensibili alla radioterapia e possono anch'essi giovarsi della vertebroplastica.
APA, Harvard, Vancouver, ISO, and other styles
4

Presciuttini, Silvia. "Maschere e volti nel setting ai tempi della pandemia." STUDI JUNGHIANI, no. 54 (February 2022): 85–100. http://dx.doi.org/10.3280/jun54-2021oa13064.

Full text
Abstract:
L'"emergenza sanitaria" ha costretto gli analisti a cercare modalità inedite per proseguire l'analisi. L'articolo si sofferma in particolare sui cambiamenti apportati nel setting dalla presenza della mascherina sanitaria, tracciando un excursus che dal tema della "maschera" negli usi collettivi delle culture umane si svolge attraverso il concetto junghiano di Persona, in contrapposizione al tema del "volto" come immagine autentica del sé. Una vignetta clinica illustra le criticità apportate dalla mascherina nel setting, nel suo ostacolare la comunicazione delle emozioni. In mancanza di un'elaborazione trasformativa dei dati concreti, anche lo "smascheramento" può condurre a un incontro destabilizzante. Nei momenti di oscurità e confusione che si attraversano in analisi, l'analista sperimenta quella sorta di "identità inconscia" fra terapeuta e paziente che Jung ha definito Nigredo. Il corpo sottile acquista allora caratteri di gravità, pesantezza, spessore, che ne danneggiano la qualità trasformativa. 
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Analisi qualità immagini"

1

Bertini, Flavio. "Analisi qualitativa di immagini in tomosintesi digitale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2011. http://amslaurea.unibo.it/2741/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Pesaresi, Simone. "Analisi e controllo di qualità di immagini da OCRA TableTop MRI." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
OCRA Tabletop MRI è un setup di risonanza magnetica da tavolo usato a scopo didattico e di ricerca. Il sistema è composto da un magnete permanente da 0.28 T, 4 bobine di gradiente e una bobina a RF usata sia per trasmettere che per ricevere i segnali. I segnali sono elaborati da una scheda di acquisizione che comunica in rete i risultati delle scansioni. Il setup è abbastanza economico e versatile in quanto permette di personalizzare le sequenze di acquisizione e di modificarle in tempo reale. In questo contesto si è inserito il lavoro descritto in questo elaborato: una interfaccia grafica (GUI) che permettesse di visualizzare il volume acquisito nelle tre viste sagittale, coronale e assiale e di valutarne la qualità. Dalla vista assiale la GUI consente quindi di selezionare delle ROIs (Regions of Interest), regioni di un determinato tipo, forma e dimensione, importanti per valutare la qualità dell’immagine tramite la stima del rapporto segnale rumore (SNR). Gli elementi acquisiti sono phantom alti 30mm con un foro a forma di stella. Da 3 volumi scansionati con una sequenza "spin echo" sono stati eseguiti 2 protocolli di acquisizione per individuare gruppi di ROIs su 2 slice differenti. Queste slice sono state scelte per delle caratteristiche differenti: una rappresenta la zona del volume con maggior segnale, l'altra invece individua una zona con maggiore omogeneità nelle aree che rappresenta. Dai dati risulta che il protocollo non standard è troppo volume-dipendente, quindi poco affidabile per misure su differenti volumi. E' stato fatto anche un breve studio sulla omogeneità delle regioni.
APA, Harvard, Vancouver, ISO, and other styles
3

Dardi, Francesca. "Progetto ed applicazioni di metodi per l'analisi della qualità delle immagini." Doctoral thesis, Università degli studi di Trieste, 2012. http://hdl.handle.net/10077/7418.

Full text
Abstract:
2010/2011
L’analisi della qualità dell’immagine rappresenta attualmente un ambito di ricerca estremamente interessante ed innovativo per quanto riguarda molteplici settori di applicazione, dal multimediale, al biomedico, al forense. Trattare l’argomento in modo esaustivo si presenta quindi particolarmente complesso poiché, a seconda della particolare tipologia di applicazione, possono essere definiti di conseguenza diversi criteri per esprimere la qualità dell’immagine in analisi e diverse categorie di algoritmi per la determinazione di criteri di valutazione. Nel presente lavoro di tesi, si vuole cercare di dare un quadro sufficientemente ampio ed originale di quali possano essere stime efficaci della qualità di un’immagine, in particolare all’interno di una sequenza video ed in fase di studio di nuovi sistemi multimediali ad alta qualità, e con tale termine intendendo la qualità percepita dall’utente finale del sistema: parliamo quindi di qualità soggettiva, argomento ancora più circostanziato nel campo di studio individuato. Frequentemente, in tale ambito, le analisi di qualità, o più specificatamente di artefatti riconducibili a stime effettuate, vengono implementate in relazione a codifiche video proprie di standard avanzati: esempio tipico è rappresentato dalle applicazioni di algoritmi di qualità a possibili configurazioni di codifica previste dallo standard H264. Determinati tipi di codifiche, comprendono già nella catena di elaborazione del video la presenza di specifici stadi atti a ridurre determinati artefatti da codifica, fra cui citiamo la blochettatura, che in qualche modo è possibile prevedere soprattutto in caso di “bit rate” di trasmissione particolarmente bassi e corrispondenti ad una maggiore perdita di informazione, almeno nella maggior parte dei casi. Proprio per questo motivo decidiamo di rivolgerci allo studio di una seconda tipologia di artefatto, estremamente rilevante dal punto di vista percettivo ma non ancora così analizzato, ovvero la sfocatura: questa non è facilmente riconducibile ad una singola causa, come appunto la codifica, ed è per questo che misurazioni in tal senso vanno effettuate su più caratteristiche dell’immagine in analisi. La misurazione di sfocatura che proponiamo in questo lavoro è costituita infatti da differenti componenti, in modo da poter ricondurre a ciascun tipo di analisi sfocature dalle caratteristiche diverse ed imputabili a cause di natura differente. Una prima misurazione a livello globale riguarda in particolare una stima in percentuale dell'area dell'immagine in esame interessata da un basso indice di contrasto, calcolato secondo formule note e nel rispetto di quanto percepito da un osservatore. Una seconda misurazione di tipo globale rileva invece il deterioramento o addirittura l'assenza di dettaglio fine, imputabile ad es. ad artefatto da codifica in modo abbastanza tipico. Alle misurazioni di sfocatura precedentemente illustrate, diviene necessario affiancare altre considerazioni di tipo percettivo, riconducibili a modelli del sistema visivo umano, proprio per raggiungere una valutazione soggettivamente coerente anche in assenza di immagini di riferimento per effettuare la stima di qualità. È necessario infatti valutare diversamente l’entità dell’artefatto a seconda delle caratteristiche a livello locale della zona dell’immagine in cui si manifesta. All’interno dell’immagine in analisi, grazie a modelli già accettati dalla comunità scientifica, è possibile determinare, quale sia la regione e/o gli oggetti focalizzati immediatamente dall’attenzione di un osservatore umano. Si decide quindi di abbinare procedure di determinazione di aree di “spot of attention” a procedure di estrazione degli oggetti presenti in una scena, in modo da distinguerne quelli così detti “in primo piano”. Ciò comporta in particolare l’integrazione di modelli del sistema visivo umano con un opportuno algoritmo di segmentazione, sperimentalmente coerente con quanto percepito a livello della scena in termini di regioni estratte. Il frame viene segmentato in regioni dalle caratteristiche omogenee e coerenti con la cognizione dell’osservatore ed in un secondo momento, vengono selezionate fra le regioni individuate quelle che soddisfano i criteri scelti di rilevanza percettiva. A valle di tutte queste considerazioni, sintetizziamo le misurazioni e le informazioni percettive rilevate per identificare la presenza e classificare la tipologia di sfocatura presente in una determinata immagine. Vengono descritte le caratteristiche delle diverse tipologie di sfocatura di interesse per il presente lavoro e in quale modo possono essere riconosciute e quantificate seguendo la traccia di analisi finora descritta: in particolare, vengono riconosciute la sfocatura nativa, estesa in ampie zone dell’immagine e prodotta da cattiva acquisizione o volutamente introdotta dall’operatore, e quella da codifica. In presenza di sfocatura da codifica, vediamo come ne siano particolarmente affetti i bordi degli oggetti presenti nella scena e non particolarmente netti, così come le tessiture ed altri dettagli fini. Tessiture e dettaglio fine corrispondono infatti a rapide variazioni di intensità ma di ampiezza contenuta, per questo la trasformata DCT e la quantizzazione successiva propria della codifica penalizzano soprattutto tali frequenze più elevate. Basandoci su queste osservazioni, viene proposta una tecnica per la stima locale della sfocatura grazie all’analisi dei bordi e del dettaglio nella componente di luminanza dell’immagine. Questo è possibile ricorrendo all’utilizzo di un operatore, ovvero la diffusione anisotropa, che si rivela particolarmente adatto a simulare gli effetti della sfocatura da identificare, in modo da capire se questa ha già avuto effetto sull’immagine di test o meno. L’efficacia della metrica proposta nella stima della sfocatura viene quindi sperimentalmente analizzata. Per prima cosa i “frame” vengono raggruppati secondo criteri oggettivi, come ad esempio la presenza di sfocatura e la sua origine, esaminando la corrispondenza fra il valore calcolato della metrica e la categoria oggettiva del “frame” in esame. Successivamente, viene studiata la relazione fra metrica e stima complessiva di qualità, confrontata con giudizi di osservatori umani, sempre in relazione alla tipologia di sfocatura corrispondente. Si procede quindi con una seconda fase sperimentale atta a verificare la validità soggettiva delle considerazioni fatte in caso di sfocatura da codifica analizzata a livello locale e confrontata con valutazioni percettive. Diversi risultati sperimentalmente ottenuti vengono presentati nel capitolo dedicato. Per completare lo studio proposto, infine, si analizza brevemente altre possibili applicazioni di algoritmi di analisi della qualità dell’immagine, diversi dal principale ambito di analisi riguardante la multimedialità. In particolare, uno dei settori che maggiormente sta acquisendo importanza in termini di ricerca riguarda proprio le applicazioni alle scienze forensi, con le problematiche ad essa relative e prevalentemente inerenti il miglioramento della qualità dell’immagine finalizzata e/o preventiva al riconoscimento di volti e tracce contenute nell’immagine in esame, da sottoporre ad un operatore esperto o ad un algoritmo di riconoscimento automatico. Una prima analisi di qualità dell’immagine da sottoporre a riconoscimento può rappresentare quindi un importante passo da eseguire preventivamente ad altri tipi di operazioni, anche per ottenere una stima di attendibilità di quanto poi effettuabile in termini di miglioramento e riconoscimento: in corrispondenza ad un basso livello di qualità, corrispondente a tracce realmente rilevate sulla scena del crimine, viene proposto infine un algoritmo di riconoscimento rivolto a un tipo di tracce molto specifico, ovvero quelle di calzatura, che si dimostra particolarmente robusto al rumore e particolarmente adatto a lavorare sul caso reale, come metodologia indipendente o in combinazione con algoritmi già esistenti nello stato dell’arte.
XXIV Ciclo
1971
APA, Harvard, Vancouver, ISO, and other styles
4

GEBBIA, ANDREA. "Analisi delle variazioni nella qualità immagine di esami di risonanza magnetica per pazienti dotati di dispositivi impiantabili attivi MR-conditional." Doctoral thesis, Università degli Studi di Milano, 2020. http://hdl.handle.net/2434/905729.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Mattioli, Laura. "Analisi fisiche e sensoriali per la valutazione della qualità di un prodotto da forno tipico: I taralli." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7038/.

Full text
Abstract:
Questa relazione è frutto di un lavoro sperimentale svolto su diversi campioni di taralli del commercio forniti da un'azienda del settore, prodotti mediante ricette simili ed omogenei per dimensioni. Le attività di ricerca sono state focalizzare su: I) l'individuazione e la valutazione dei principali descrittori sensoriali in grado di caratterizzare la tipologia di prodotto; II) lo svolgimento di un'analisi sensoriale discriminante per verificare l'esistenza di differenze significativamente rilevabili tra taralli dello stesso tipo ma conservati per tempi differenti (0, 6, 12 mesi), al fine di fornire indicazioni utili per la definizione corretta della shelf-life del prodotto; III) la determinazione di specifici parametri fisici relazionati con l'apparenza e la texture dei taralli, per verificare la possibilità di utilizzare tali dati sia come supporto alla fase di allenamento del gruppo di assaggiatori, sia come approccio rapido per la valutazione della qualità e della freschezza di tali prodotti. Per la realizzazione degli obiettivi appena esposti, é stata applicata la tecnica QDA®. I dati delle singole sedute di analisi sono stati monitorati mediante PanelCheck. E' stato svolto un test triangolare attraverso cui definire se i taralli differenti per tempo di conservazione risultino significativamente discriminati per le caratteristiche sensoriali. Parallelamente alla QDA® e sullo stesso set di campioni, sono state applicate alcune analisi fisiche concernenti la valutazione dell’aspetto visivo e della texture del prodotto. Per la valutazione strumentale dell’apparenza dei campioni di taralli, si sono acquisite le immagini relative ai campioni oggetto di studio mediante un sistema di acquisizione e, successivamente, elaborate attraverso Image Pro - Plus v 6.2, per determinare elementi utili alla discriminazione dei campioni in esame. Per quanto concerne la determinazione della caratteristiche strutturali dei taralli è stato utilizzato il Texture Analyzer ed impiegato un test di penetrazione. E' stata infine condotta, mediante tecniche statistiche, un’analisi congiunta dei dati sensoriali e fisici.
APA, Harvard, Vancouver, ISO, and other styles
6

PALMIERI, ROBERTA. "Tecniche e procedure innovative per il controllo di qualità di aggregati riciclati da scarti da demolizione e costruzione." Doctoral thesis, 2017. http://hdl.handle.net/11573/937166.

Full text
Abstract:
Sviluppare e approfondire la strada del riciclo dei rifiuti provenienti da attività di costruzione e demolizione è un importante obiettivo da perseguire sia per la salvaguardia ambientale che per il recupero di materie prime. Infatti, tali scarti, un tempo considerati solo come un costo da mantenere per il loro smaltimento nelle discariche autorizzate, possono trasformarsi in una risorsa dalla quale attingere per ottenere aggregati riciclati da reimmettere nel ciclo di produzione del calcestruzzo. Affinché gli aggregati riciclati siano di buona qualità e possano competere con quelli naturali, è buona norma adottare dei sistemi di controllo capaci di monitorare il processo di riciclo. Per raggiungere tale scopo, è stato condotto il presente studio il cui obiettivo principale è stato lo sviluppo di una procedura basata sull'utilizzo di sensori per il controllo di qualità degli aggregati riciclati in termini di riconoscimento di materiali inquinanti (i.e. plastica, legno, gesso, mattone, ecc.), identificazione del grado di liberazione delle particelle di aggregato dalla malta cementizia, valutazione dei parametri morfologici e morfometrici delle particelle riciclate. Inoltre, sono stati adottati tali metodi di controllo anche per analizzare e caratterizzare il calcestruzzo prima dello smantellamento, in modo tale da poter ottimizzare le successive azioni di demolizione per il recupero di materiali (i.e. aggregati) da riciclare. Sono stati analizzati diversi materiali campione, adottando differenti metodiche d’indagine come la micro-fluorescenza a raggi X, l’analisi d’immagine digitale e l’analisi d’immagine iperspettrale in diversi range spettrali. Dalla combinazione delle diverse tecniche è stato possibile realizzare una strategia d’indagine applicabile anche all'interno di un impianto di riciclo di rifiuti da attività di costruzione e demolizione, per il monitoraggio dei flussi il trattamento. La ricerca effettuata è parte del progetto europeo Concrete to Cement Aggregates (C2CA): “Advanced Technologies for the Production of Cement and Clean Aggregates from Construction and Demolition Waste”, Grant Agreement No. 265189.
APA, Harvard, Vancouver, ISO, and other styles
7

BULGINI, Giulia. "Il progetto pedagogico della Rai: la televisione di Stato nei primi vent’anni. Il caso de ‹‹L’Approdo››." Doctoral thesis, 2018. http://hdl.handle.net/11393/251123.

Full text
Abstract:
Non c’è dubbio sul fatto che la RAI, dal 1954 a oggi, abbia contribuito in misura considerevole a determinare la fisionomia dell’immaginario collettivo e dell’identità culturale dell’Italia. Si tratta di un assunto che, a distanza di più di sessant’anni, resta sempre di grande attualità, per chi si occupa della questione televisiva (e non solo). Ma a differenza di quanto avveniva nel passato, quando la tv appariva più preoccupata dei reali interessi dei cittadini, oggi essa sembra rispondere prevalentemente a dinamiche di mercato, in grado di alterarne la funzione etica e sociale. E nonostante il livello di istruzione e di benessere economico si siano evidentemente alzati, in questi ultimi anni si è assistito a programmi di sempre più bassa qualità e in controtendenza a un incremento del potere modellante e suggestivo sull’immaginario dei telespettatori. C’è di più: l’interesse verso la tv ha coinvolto anche gli storici dell’epoca contemporanea, i quali hanno iniziato a prendere coscienza che le produzioni audiovisive sono strumenti imprescindibili per la ricerca. Se si pensa ad esempio al ‹‹boom economico›› del Paese, negli anni Cinquanta e Sessanta, non si può non considerare che la tv, insieme agli altri media, abbia contributo a raccontare e allo stesso tempo ad accelerare i progressi economici e sociali di quell’epoca. Partendo, dunque, dal presupposto che la televisione da sempre esercita un potere decisivo sulla collettività, si è scelto di concentrarsi sulla fase meno indagata della sua storia, quella della televisione delle origini: ‹‹migliore›› perché senza competitor, ‹‹autentica›› perché incontestabile e soprattutto ‹‹pedagogica›› perché è di istruzione e di formazione che, quell’Italia appena uscita dalla guerra, aveva più urgenza. La storia della televisione italiana inizia il 3 gennaio 1954, con la nascita del servizio pubblico televisivo e insieme di un mezzo che, di lì a poco, avrebbe completamente rivoluzionato la società italiana, trasformandola in una civiltà di massa. Si accorciano le distanze territoriali e insieme culturali e la società inizia a omologarsi nei gusti, poi nei consumi e infine nel pensiero. Il punto d’arrivo si colloca negli anni Settanta, quando ha termine il monopolio della RAI, che fino a quel momento era stato visto come il garante del pluralismo culturale. La RAI passa dal controllo governativo a quello parlamentare, mentre si assiste al boom delle televisioni private e alla necessità della tv di Stato di stare al passo con la concorrenza, attraverso una produzione diversa da quella degli esordi. Dunque cambia la tv, come pure cambia la sua funzione e la forma mentis di chi ne detiene le redini. Ne risulta un’indagine trasversale, che passa nel mezzo di molteplici discipline che afferiscono alla materia televisiva e che non evita di porsi quelle domande scomode, necessarie tuttavia a comprendere la verità sugli artefici della prima RAI e sui loro obiettivi. E allora: qual era il valore attribuito alla televisione degli esordi? Era davvero uno strumento pedagogico? Sulla base di quali presupposti? Chi scriveva i palinsesti di quegli anni? Chi e perché sceglieva temi e format televisivi? Chi decideva, in ultima analisi, la forma da dare all’identità culturale nazionale attraverso questo nuovo apparecchio? Il metodo di ricerca si è articolato su tre distinte fasi di lavoro. In primis si è puntato a individuare e raccogliere bibliografia, sitografia, studi e materiale bibliografico reperibile a livello nazionale e internazionale sulla storia della televisione italiana e sulla sua programmazione nel primo ventennio. In particolare sono stati presi in esame i programmi scolastici ed educativi (Telescuola, Non è mai troppo tardi), la Tv dei Ragazzi e i programmi divulgativi culturali. Successivamente si è resa necessaria una definizione degli elementi per l’analisi dei programmi presi in esame, operazione resa possibile grazie alla consultazione del Catalogo multimediale della Rai. In questa seconda parte della ricerca si è voluto puntare i riflettori su ‹‹L’Approdo››, la storia, le peculiarità e gli obiettivi di quella che a ragione potrebbe essere definita una vera e propria impresa culturale, declinata in tutte le sue forme: radiofonica, di rivista cartacea e televisiva. In ultimo, sulla base dell’analisi dei materiali d’archivio, sono state realizzate interviste e ricerche all’interno dei palazzi della Rai per constatare la fondatezza e l’attendibilità dell’ipotesi relativa agli obiettivi educativi sottesi ai format televisivi presi in esame. Le conclusioni di questa ricerca hanno portato a sostenere che la tv delle origini, con tutti i suoi limiti, era uno strumento pedagogico e di coesione sociale. E se ciò appare come un aspetto ampiamente verificabile, oltreché evidente, qualora si voglia prendere in esame la televisione scolastica ed educativa di quegli anni, meno scontato risulta invece dimostrarlo se si decide – come si è fatto – di prendere in esame un programma divulgativo culturale come ‹‹L’Approdo››, che rientra nell’esperienza televisiva definita di ‹‹educazione permanente››. Ripercorrere la storia della trasmissione culturale più longeva della tv italiana degli esordi, per avvalorarne la funzione educativa, si è rivelata una strada interessante da battere, per quanto innegabilmente controversa, proprio per il principale intento insito nella trasmissione: diffondere la cultura ‹‹alta›› a milioni di telespettatori che erano praticamente digiuni della materia. Un obiettivo che alla fine della disamina si è rivelato centrato, grazie alla qualità della trasmissione, al suo autorevole e prestigioso groupe d'intellectuels, agli ascolti registrati dal ‹‹Servizio Opinioni›› e alla potenzialità divulgativa e penetrante della tv, nel suo saper trasmettere qualunque tematica, anche quelle artistiche e letterarie. Dunque se la prima conclusione di questo studio induce a considerare che la tv del primo ventennio era pedagogica, la seconda è che ‹‹L’Approdo›› tv di questa televisione fu un’espressione felice. ‹‹L’Approdo›› conserva ancora oggi un fascino innegabile, non foss’altro per la tenacia con la quale i letterati difesero l’idea stessa della cultura classica dal trionfo lento e inesorabile della società mediatica. Come pure appare ammirevole e lungimirante il tentativo, mai azzardato prima, di far incontrare la cultura con i nuovi media. Si potrebbe dire che ‹‹L’Approdo›› oggi rappresenti una rubrica del passato di inimmaginata modernità e, nel contempo, una memoria storica, lunga più di trent’anni, che proietta nel futuro la ricerca storica grazie al suo repertorio eccezionale di immagini e fatti che parlano di arte, di letteratura, di cultura, di editoria e di società e che raccontano il nostro Paese e la sua identità culturale, la stessa che la televisione da sempre contribuisce a riflettere e a delineare. Lo studio è partito da un’accurata analisi delle fonti, focalizzando l’attenzione, in primo luogo, sugli ‹‹Annuari della Rai›› (che contengono le Relazioni del Cda Rai, le Relazioni del Collegio Sindacale, i Bilanci dell’Esercizio e gli Estratti del Verbale dell’Assemblea Ordinaria). Altre fonti prese in esame sono gli stati gli opuscoli di ‹‹Servizio Opinioni››, le pubblicazioni relative a studi e ricerche in materia di televisione e pedagogia e le riviste edite dalla Rai Eri: ‹‹Radiocorriere tv››, ‹‹L’Approdo Letterario››, ‹‹Notizie Rai››, ‹‹La nostra RAI››, ‹‹Video››. Negli ultimi anni la Rai ha messo a disposizione del pubblico una cospicua varietà di video trasmessi dalle origini a oggi (www.techeaperte.it): si tratta del Catalogo Multimediale della Rai, che si è rivelato fondamentale al fine della realizzazione della presente ricerca. Altre sedi indispensabili per la realizzazione di questa ricerca si sono rivelate le due Biblioteche romane della Rai di Viale Mazzini e di via Teulada.
APA, Harvard, Vancouver, ISO, and other styles
8

SBRANA, ALESSANDRO. "Faculty Development Centri di Professionalità Accademica (CPA)." Doctoral thesis, 2018. http://hdl.handle.net/11393/251175.

Full text
Abstract:
mondo universitario ha subito un’ondata di cambiamenti che si possono ricondurre alla ricerca dell’eccellenza, declinata secondo le due dimensioni della valutazione e della rendicontazione. Tre sono quelli più evidenti: il primo, il passaggio da una ricerca curiosity driven a una ricerca funzionale al raggiungimento di risultati valutabili in tempi brevi; dalla ricerca pura a quella applicata, da un approccio problem-making a uno problem-solving, da una conoscenza come processo a una conoscenza come prodotto, da un modello disinteressato a uno utilitaristico (Barnett, 1994); il secondo, riguardante l’offerta formativa: dal momento che si è modificato il modo di concepire l’apprendimento; i curricula tendono a essere definiti in termini di risultati di apprendimento predefiniti (Blackmore, 2016); il terzo, peculiare della struttura amministrativa: dal momento in cui sono divenute essenziali una serie di nuove sovrastrutture (programmazione, valutazione, controlli, comunicazione) rispetto al mandato originario della struttura universitaria si registra un aumento consistente del personale delle strutture amministrative. Questi cambiamenti devono fare i conti con la perdita di prestigio della vita accademica, il cambiamento del ruolo dello studente, che è diventato sempre più importante e l’aumento delle procedure burocratiche che rischiano di ingessare un sistema un tempo caratterizzato da un’elevata autonomia. Per consentire alle strutture universitarie di affrontare le sfide culturali a partire dagli anni Settanta nelle università nord-americane si sono strutturate iniziative finalizzate allo sviluppo e alla promozione di una migliore offerta formativa. Tali iniziative vengono definite con l’espressione Faculty Development (FD), una policy accademica finalizzata a creare le condizioni per un miglioramento delle competenze di tutti coloro che sono coinvolti nelle attività svolte in un ateneo. Nella realtà italiana emerge la mancanza di una vera politica di formazione al teaching per i ricercatori e i docenti universitari, per non parlare dell’esigenza di superare il pregiudizio, di gentiliana memoria, secondo il quale non è necessario apprendere a insegnare, ma sia sufficiente avere successo nella ricerca, cui si aggiunge nell’ultimo decennio una continua e affannata richiesta al personale accademico di azioni organizzative, valutative e documentali, che assorbono tempo e energie senza il supporto di adeguati apparati gestionali e senza predisporre indagini valutative capaci di misurare l’effettivo esito di tutte queste azioni. L’effetto finale è un evidente declino (Capano et al., 2017) dell’istituzione universitaria. Si può ipotizzare che la cultura del organizzazione propria del Faculty Development possa contribuire nel contesto italiano a fornire azioni a supporto del cambiamento: è quanto mai essenziale dotare gli atenei di risorse funzionali a riqualificare la vita accademica, fornendo al personale accademico gli strumenti necessari per performare una buona scholarship, realizzare un’efficace offerta formativa e attuare adeguate forme di terza missione, capaci di incrementare la vita culturale della comunità. Il presente studio si propone come un’analisi sistematica della letteratura sul tema del Faculty Development, che persegue l’obiettivo di sviluppare una disamina estesa dell’oggetto, in modo che l’esplicitazione della datità raccolta fornisca un’analisi del fenomeno che possa essere di supporto a un’avveduta educational policy nel campo della formazione universitaria. Nel contesto italiano ad oggi non esiste una cultura di attenzione ai contesti di apprendimento universitario. L’offerta formativa è concepita come offerta di pacchetti curriculari e la predisposizione delle condizioni di apprendimento per il conseguimento del titolo universitario si risolve nella organizzazione di una serie di lezioni, frontali o laboratoriali, senza che tutto questo sia innervato da una specifica intenzionalità didattica. Questa immagine poco confortante non intende affatto trascurare tutti i casi di buone prassi sviluppati nei vari corsi di studio, ma il buono che emerge è demandato all’impegno del singolo, senza che l’istituzione universitaria si interroghi sul come predisporre le condizioni per il potenziamento della qualità dei processi di apprendimento. A fronte di questa situazione la necessità di migliorare la qualità dell’insegnamento non è mai stata così stringente e sfidante come lo è oggi, in un clima di continuo cambiamento della formazione superiore. Nuove tendenze definiscono la formazione superiore, attraversando confini istituzionali e nazionali. Essi influiscono sul modo in cui un insegnamento efficace viene concettualizzato, condotto e supportato, valutato, valorizzato e riconosciuto. È necessario affrontare temi quali l’inadeguata preparazione per il lavoro accademico nei corsi di studio magistrali, l’incapacità dei docenti a trasferire competenze, la crescente complessità degli ambienti accademici, le attese e le responsabilità istituzionali, la necessità di preparare meglio gli studenti con bisogni diversi, e la necessità di stare al passo con i balzi della conoscenza e i cambiamenti nelle professioni. Migliorare la qualità della didattica è inoltre essenziale perché consente di ridurre il numero degli abbandoni. È venuto il momento di transitare da un’offerta formativa di tipo episodico a una prospettiva di esperienze di apprendimento in continuità nel tempo, per accompagnare la formazione dei docenti in un modo strutturalmente organizzato (Webster-Wright, 2009). Sulla base della rilevazione fenomenica, sono emerse le seguenti domande di ricerca: che cosa è il FD? Cosa consente di fare? Come si mette in pratica? Quali sono le potenzialità? Quali sono i limiti? Il FD ha il compito di incentivare i docenti ad interessarsi ai processi di insegnamento e apprendimento e a procurare un ambiente sicuro e positivo nel quale fare ricerca, sperimentare, valutare e adottare nuovi metodi (Lancaster et al. 2014). È finalizzato a promuovere cambiamento sia a livello individuale sia a livello organizzativo. Occupa un posto centrale il miglioramento delle competenze di teaching (Steinert, 2014). Due importanti obiettivi sono rappresentati dalla promozione delle capacità di leadership e di gestione dei contesti (Steiner et al., 2012). Una volta definite le metodologie del teaching, che possono essere oggetto di apprendimento da parte del personale accademico, è risultato necessario identificare le principali modalità formative che un centro di Faculty Development (FDc) dovrebbe mettere in atto per favorire l’apprendimento delle competenze didattiche. Per comprenderne la funzione reale è stato utile prendere in esame le attività proposte dai più importanti centri del panorama accademico nordamericano, analizzandone la struttura organizzativa, le risorse disponibili ed identificandone le due figure principali: il responsabile dell’organizzazione dei processi formativi e il responsabile della struttura. L’analisi dei casi ha consentito di evidenziare i molteplici servizi che possono essere forniti da un FDc. Questa analisi di realtà è risultata molto utile poiché ha offerto indicazioni pragmatiche ai fini di una politica accademica innovativa anche in ambito italiano. Alla luce degli argomenti sviluppati è stato possibile ipotizzare anche per gli atenei italiani l’istituzione di “Centri per la professionalità accademica”, indicando possibili iniziative da essi realizzabili, che potrebbero trovare spazio nella realtà del nostro paese.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Analisi qualità immagini"

1

Chevanne, Marta, and Riccardo Caldini. Immagini di Istopatologia. Florence: Firenze University Press, 2007. http://dx.doi.org/10.36253/978-88-5518-023-8.

Full text
Abstract:
This collection of images of Histopathology is the fruit of the authors' thirty years' experience in the performance of practical exercises in General Pathology. It is aimed at students attending lessons of General Pathology on the Degree Courses in Medical Surgery and Biological Sciences. It does not aspire either to be complete from the point of view of the various organic pathologies, or to replace direct and personal observation of the histological preparations through the microscope, but is rather intended as an aid to students preparing for the exam. It does not include the rudiments of cytology and microscopic anatomy, which it is assumed have already been mastered by those approaching General Histopathology, nor are histopathological phenomena systematically addressed, for which the reader is referred to textbooks on General Pathology. The 44 preparations presented here have been grouped in line with the main arguments of General Pathology: Cellular Degeneration, Inflammation, Neoplasia both benign and malign, and Vascular Pathology. They have been selected for their didactic significance and the simplicity and clarity of the lesions present, without taking into account the information to be derived from the clinical case history. The images of the preparations, in which the best possible quality of reproduction has been sought, are presented in progressive enlargements and are accompanied by brief descriptions comprising the explanations essential for identification of the characteristic aspects of the elementary lesion, as well as any eventual defects in the preparations themselves. Effectively, the objective of the work is to enable the student to exercise his understanding of the images. For this reason the casuistics included is as essential as possible, and the method of presentation utilised is designed to avoid mere visual memorisation, stimulating first analysis and then synthesis, and the development of individual logical skills so as to indicate whether aspects of cellular pathology, inflammation or neoplasia are present.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography