Literatura académica sobre el tema "Calcolo HTC"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Calcolo HTC".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Calcolo HTC"

1

Valliappan, Nachiappan, Fabian Ruch y Carlos Tomé Cortiñas. "Normalization for fitch-style modal calculi". Proceedings of the ACM on Programming Languages 6, ICFP (29 de agosto de 2022): 772–98. http://dx.doi.org/10.1145/3547649.

Texto completo
Resumen
Fitch-style modal lambda calculi enable programming with necessity modalities in a typed lambda calculus by extending the typing context with a delimiting operator that is denoted by a lock. The addition of locks simplifies the formulation of typing rules for calculi that incorporate different modal axioms, but each variant demands different, tedious and seemingly ad hoc syntactic lemmas to prove normalization. In this work, we take a semantic approach to normalization, called normalization by evaluation (NbE), by leveraging the possible-world semantics of Fitch-style calculi to yield a more modular approach to normalization. We show that NbE models can be constructed for calculi that incorporate the K, T and 4 axioms of modal logic, as suitable instantiations of the possible-world semantics. In addition to existing results that handle 𝛽-equivalence, our normalization result also considers 𝜂-equivalence for these calculi. Our key results have been mechanized in the proof assistant Agda. Finally, we showcase several consequences of normalization for proving meta-theoretic properties of Fitch-style calculi as well as programming-language applications based on different interpretations of the necessity modality.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

B'Shary, I., C. Guimon, M. Grimaud y G. Pfister-Guillouzo. "Étude de la flash thermolyse du méthyl-5 azido-2 thiadiazole-1,3,4 par spectroscopie photoélectronique (HeI) et calculs quantiques". Canadian Journal of Chemistry 66, n.º 11 (1 de noviembre de 1988): 2830–34. http://dx.doi.org/10.1139/v88-438.

Texto completo
Resumen
The flash thermolysis of 5-methyl 2-azido 1,3,4-thiadiazole (vapour phase: 10−2 mbar) was studied by ultraviolet photoelectron spectroscopy (HeI). The products detected (H2C=C=S, HCN, and N2) suggest that the unstable thiadiazole-nitrene undergoes a ring opening to form a linear thione 4, which generates the thiocetene H2C=C=S. This step was theoretically analysed by the MNDO method.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Alca-Clares, Raúl, Harold Tabori-Peinado, Armando Calvo-Quiroz, Alfredo Berrocal-Kasay y Cesar Loza-Munarriz. "Manifestaciones musculo-esqueléticas en pacientes en hemodiálisis crónica". Revista Medica Herediana 24, n.º 4 (19 de diciembre de 2013): 298. http://dx.doi.org/10.20453/rmh.v24i4.274.

Texto completo
Resumen
Objetivos: Determinar la frecuencia y describir las manifestaciones musculoesqueléticas (MME) en pacientes en hemodiálisis crónica (HDC). Material y métodos: Es una serie de casos. Se incluyeron 68 pacientes con edad ≥ 18 años, en HDC ≥ 6 meses, del Centro de Hemodiálisis de la Universidad Peruana Cayetano Heredia. Los datos demográficos, clínicos, tiempo en hemodiálisis, dosis de diálisis e ingesta proteica, y calcio, fósforo y fosfatasa alcalina séricos fueron obtenidos de las historias clínicas, en 38 pacientes se determinó PTH sérico y a 37 pacientes se les realizó densitometría ósea como parte de su evaluación. Resultados: La edad promedio fue 52,1 ± 22,1 años, el 52,9% fueron mayores de 60 años, el tiempo en HDC 21,6 ± 17 meses, la nefropatía diabética fue la etiología más frecuente. El 73,5% de los pacientes presentaron MME. La artrosis y la lumbalgia fueron las más frecuentes. La artrosis se relacionó con edad >60 años (66,7% vs. 12,5%; p=0,000) y la presencia de diabetes mellitus (DM) (68,6% vs. 32,7%; p=0,010). En 64,9% de pacientes se encontró densidad mineral ósea (DMO) disminuida, 11 (29,7%) tuvieron osteoporosis y 12 (32,4%) osteopenia. Conclusión: Las MME tienen frecuencia elevada en pacientes en HDC, siendo la artrosis, la lumbalgia y la DMO disminuida las manifestaciones más frecuentes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Nolasco, Pedro, Paulo V. Coelho, Carla Coelho, David F. Angelo, J. R. Dias, Nuno M. Alves, António Maurício et al. "Mineralization of Sialoliths Investigated by Ex Vivo and In Vivo X-ray Computed Tomography". Microscopy and Microanalysis 25, n.º 1 (febrero de 2019): 151–63. http://dx.doi.org/10.1017/s1431927618016124.

Texto completo
Resumen
AbstractThe fraction of organic matter present affects the fragmentation behavior of sialoliths; thus, pretherapeutic information on the degree of mineralization is relevant for a correct selection of lithotripsy procedures. This work proposes a methodology for in vivo characterization of salivary calculi in the pretherapeutic context. Sialoliths were characterized in detail by X-ray computed microtomography (μCT) in combination with atomic emission spectroscopy, Fourier transform infrared spectroscopy, X-ray diffraction, scanning electron microscopy, and transmission electron microscopy. Correlative analysis of the same specimens was performed by in vivo and ex vivo helical computed tomography (HCT) and ex vivo μCT. The mineral matter in the sialoliths consisted essentially of apatite (89 vol%) and whitlockite (11 vol%) with average density of 1.8 g/cm3. In hydrated conditions, the mineral mass prevailed with 53 ± 13 wt%, whereas the organic matter, with a density of 1.2 g/cm3, occupied 65 ± 10% of the sialoliths’ volume. A quantitative relation between sialoliths mineral density and X-ray attenuation is proposed for both HCT and μCT.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Reyes Obando, Ana Lourdes, Carmen Valeria Pinto Romero, Andrea Giselle Banegas Pineda, Delcy Olivia Alberto Villanueva, José Daniel Hernández Vásquez, Hassel Denisse Ferrera Dubón, Luis Dariel Reyes Quezada et al. "ESTUDIO COMPARATIVO IN–VITRO DEL SELLADO APICAL DE TRES CEMENTOS ENDODÓNTICOS". Revista Científica de la Escuela Universitaria de las Ciencias de la Salud 4, n.º 1 (17 de enero de 2019): 15–21. http://dx.doi.org/10.5377/rceucs.v4i1.7064.

Texto completo
Resumen
Una de las bases del éxito en el tratamiento de endodoncia es realizar un buen sellado apical mediante la obturación hermética tridimensional del sistema de conductos radiculares. Objetivo: Evaluar si existe diferencia significativa en los resultados alcanzados en el sellado apical según el tipo de cemento utilizado Materiales y Métodos: Estudio cuasi-experimental, treinta dientes unirradiculares fueron instrumentados y obturados, se dividieron en tres grupos de diez, grupo I: resina epóxica, grupo II: hidróxido de calcio y grupo III: óxido de zinc y eugenol. Cada diente fue sellado coronalmente con ionómero de vidrio y se colocaron en suero fisiológico por 4 días; se impermeabilizaron con 3 capas de esmalte de uñas sumergiéndolos en tinta china a 37oC por 48 horas. Se realizó el proceso de diafanización para evaluar el nivel de filtración de la tinta china a nivel apical. El análisis inferencial fue realizado con ANOVA unifac- torial, y la prueba post hoc de Games- Howell para evaluar entre que cementos utilizados existían diferencias significativas. Resultados: La media de filtración apical fue: 0.1mm utilizando cementos a base de resina epóxica, 0.4mm con el cemento a base de hidróxido de calcio y 1.5mm con el cemento de óxido de zinc y eugenol. La prueba de ANOVA unifactorial, indica que hay diferencias significativas en la filtración de los dientes, según el cemento utilizado (p < 0.1) Conclusión: El cemento a base de resina epóxica presenta mejores propiedades de sellado apical en comparación a los cementos a base de óxido de zinc y eugenol e hidróxido de calcio. Palabras clave Ápice del diente, Endodoncia, Obturación del Conducto Radicular
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Mello, Flavia Siqueira Furtado, José Milton de Castro Lima, Elodie Bomfim Hyppolito, Rodrigo Vieira Costa Lima, Flávio Esmeraldo Rolim, Cibele Silveira Pinho y Jesus Irajacy Fernandes da Costa. "Comparação dos graus de fibrose hepática na hepatite C crônica (HCC) medidos por métodos de elastrografia e de sorologia: ARFI e Fibroscan vs APRI e FIB4". Revista de Medicina da UFC 60, n.º 2 (23 de junio de 2020): 18–25. http://dx.doi.org/10.20513/2447-6595.2020v60n2p18-25.

Texto completo
Resumen
Para tratar a hepatite C crônica (HCC) deve-se conhecer o grau de fibrose hepática, cuja melhor determinação obtém-se por biopsia hepática. Contudo, métodos não-invasivos elastográficos e sorológicos têm sido preferidos. Objetivos: Comparar a concordância entre dois métodos elastográficos e dois sorológicos. Metodologia: Entre janeiro/2014-dezembro/2016 selecionamos portadores de HCC estadiados por FibroScan ou ARFI. Seus graus fibróticos foram agrupados (F0/F1; F2/F3/F4) e comparados aos graus fibróticos calculados laboratorialmente por APRI e FIB4 e agrupados (F0/F1; F2/F3/F4). Comparamos, FibroScan com APRI, FibroScan com FIB-4, ARFI com APRI, ARFI com FIB-4 e APRI com FIB4. Análises: concordância Kappa. Resultados: 73 pacientes (54 masculinos); idade média: 58 anos (32–81), estadeados por FibroScan (31) e ARFI (42). Para comparações, calculou-se APRI e FIB4. Entre FibroScan e APRI ou FIB4 há melhor concordância em graus fibróticos acentuados (grupo F2/F3/F4). APRI e FIB4 subestimaram a fibrose em relação ao FibroScan. ARFI comparado a APRI e FIB4 mostrou pobre concordância. Concordância entre ARFI e APRI é melhor em graus fibróticos baixos (grupo F0/F1) e é ausente em graus elevados (grupo F2/F3/F4). O FIB4 superestima a fibrose em relação ao ARFI. Conclusão: A concordância entre métodos sorológicos e elastográficos varia desde a ausente de concordância até concordância moderada.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Sanabria, Hernán, Carolina Tarqui y Eduardo Zárate. "Expectativas y prioridades laborales de los estudiantes de la Facultad de Medicina en una universidad peruana". Anales de la Facultad de Medicina 73 (7 de mayo de 2013): 58. http://dx.doi.org/10.15381/anales.v73i1.2248.

Texto completo
Resumen
Objetivos: Determinar las expectativas y prioridades laborales de los estudiantes de la Facultad de Medicina de una universidad peruana. Diseño: Estudio observacional, descriptivo y exploratorio. Institución: Universidad Nacional Mayor de San Marcos. Participantes: Alumnos de preinternado. Intervenciones: Se incluyó 278 alumnos de preinternado, matriculados en la Facultad de Medicina Humana, que voluntariamente aceptaron participar en el estudio. El muestreo fue por conveniencia, y se aplicó un cuestionario ad hoc. Se realizó juicio de expertos y estudio piloto. Se calculó promedios, desviación estándar y frecuencias absolutas y relativas. Principales medidas de resultados: Porcentajes y promedios, con desviación estándar. Resultados: A 50% de los estudiantes le gustaría desarrollarse en el área asistencial; 14,5% tenía la intención de trabajar en el nivel primario de salud; en 87,1%, estudiar en la UNMSM es una fortaleza para su vida profesional; 57,6% deseaba estudios de postgrado, 58,6% tenía intención de trabajar en Lima, 21,9% en provincias y 16,2% en el extranjero. Conclusiones: La mayoría de los estudiantes tuvo la intención de laborar en Lima y una baja proporción de trabajar en el nivel primario de salud.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Imhoff, Matías y Alfredo Trento. "Determinación de la rugosidad superficial y anchos de inundación en la planicie del río Salado (Santa Fe) para la crecida de 2003". Cuadernos del CURIHAM 18 (28 de diciembre de 2012): 52–61. http://dx.doi.org/10.35305/curiham.v18i0.49.

Texto completo
Resumen
Las planicies de inundación en ríos de llanura cumplen un papel fundamental en las crecidas, puesto que almacenan y conducen una parte importante del caudal, de lo cual se deriva la importancia de la correcta representación de la rugosidad superficial en las modelaciones hidrodinámicas. La zona de estudio corresponde al tramo del río Salado (Santa Fe, Argentina) comprendido entre la confluencia con el Arroyo Cululú y la ruta provincial N° 70. El objetivo fue determinar la rugosidad superficial de la planicie y los anchos inundados para la crecida extraordinaria de 2003 con el sistema computacional Hec-Ras. El coeficiente de rugosidad n de Manning se calculó con la ecuación de Cowan para llanura, haciendo hincapié en la determinación del factor que caracteriza la influencia de la vegetación en la rugosidad superficial (n4), puesto que este componente representa la principal diferencia con respecto a la fórmula para canales. La simulación, para condiciones no estacionarias, fue calibrada con cotas de niveles de agua medidas al momento del pico de la crecida, y con anchos de inundación obtenidos de una imagen satelital radar. De acuerdo a los resultados de la simulación, la planicie de inundación transportó más del 70 % del caudal pico. Los anchos calculados con la rugosidad espacial variable, se compararon con otras parametrizaciones, corroborándose apreciables diferencias. Estos resultados demostraron la relevancia de la definición de la rugosidad superficial, para estimar profundidades en planicie y distribución de caudales.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Álvarez Justel, Josefina. "Construcción y validación inicial de la escala de toma de decisiones de la Carrera en secundaria (ETDC-S)". Electronic Journal of Research in Education Psychology 19, n.º 55 (1 de diciembre de 2021): 605–24. http://dx.doi.org/10.25115/ejrep.v19i55.4322.

Texto completo
Resumen
Introducción. La toma de decisiones tiene un papel relevante en la educación secundaria. El alumnado ha de realizar toma de decisiones académicas de gran trascendencia para su futuro durante este proceso educativo y, para lo cual, ha de tomar conciencia de su importancia y ha de prepararse para ello. Método. El objetivo de este trabajo es validar una escala, diseñada ad hoc, para evaluar las dimensiones emocional, cognitiva y social que intervienen en un proceso de toma de decisiones. Con este fin se aplicó la escala a una muestra de 519 estudiantes de 4º de ESO (Educación Secundaria Obligatoria) y 2º de Bachillerato. Se calculó su fiabilidad mediante el Alfa de Cronbach, la validez a través de un análisis factorial exploratorio y la correlación de Pearson para conocer la relación entre los factores y las dimensiones de la escala. Resultados. Los resultados muestran que la dimensión emocional es la que más peso tiene en el proceso de toma de decisiones. La escala presenta unos niveles aceptables de fiabilidad y validez para evaluar las dimensiones que intervienen en el proceso de toma de decisiones en el alumnado de secundaria. Discusión y conclusiones. La escala es un instrumento útil y adecuado para medir las dimensiones emocional, cognitiva y social de la toma de decisiones y puede ser una herramienta válida como elemento de diagnóstico y evaluación de la toma de decisiones académica y profesional en la educación secundaria. Esta escala muestra unas propiedades psicométricas aceptables, que le hace un instrumento confiable y de fácil aplicación.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Tarqui Mamani, Carolina y Daniel Quintana Atencio. "Desempeño laboral del profesional de enfermería en un hospital de la Seguridad Social del Callao – Perú". Archivos de Medicina (Manizales) 20, n.º 1 (15 de diciembre de 2019): 123–32. http://dx.doi.org/10.30554/archmed.20.1.3372.2020.

Texto completo
Resumen
Objetivos: describir el nivel de desempeño según las características laborales, formación académica, aspectos motivadores, organizacionales y la influencia de la jefatura de enfermería del profesional de enfermería que labora en el Hospital Nacional Alberto Sabogal (HNASS) (Callao, Perú). Materiales y métodos: estudio transversal, realizado en el HNASS del Callao. El muestreo fue probabilístico, con afijación proporcional. La muestra fue 208 enfermeras. Se empleó un cuestionario ad hoc. El desempeño laboral se evalúo mediante la normativa de evaluación del Seguro Social de Perú. Se calculó promedios, desviación estándar, porcentajes y chi cuadrado. El estudio fue aprobado por el Comité de Investigación y Ética del HNASS. Resultados: el 24,5% presentó insuficiente desempeño, 78,8% tuvieron 6 a más años de servicio, 93,8% tuvieron especialidad, 63,0% perciben sobrecarga de trabajo, 70,2% no reciben capacitaciones y 37,0% perciben presión laboral de la jefatura de enfermería. Del total de enfermeras con suficiente desempeño, el 66,7% presentaron un tiempo de servicio ≥ 6 años (valor p=0,02), 96,2% tuvieron especialidad (valor p=0,01). En el grupo de enfermeras con insuficiente desempeño, el 98,0% no hacen docencia (valor p=0,02). El 82,4% no fueron capacitadas por la institución empleadora (p valor=0,030), 88,2% percibieron presión laboral por parte de la jefatura, 51,0% no tienen facilidades en el horario de trabajo, 84,3% percibieron estar desmotivados y 76,5% percibieron estar ubicados de acuerdo a su especialidad (valor p<0,05). Conclusiones: la mayoría de los profesionales de enfermería del hospital HNASS tienen desempeño suficiente, sin embargo, es necesario que la gerencia del hospital realice esfuerzos adicionales para lograr un mejor desempeño del personal de enfermería.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Calcolo HTC"

1

Vinot, Emmanuel. "Modélisation des supraconducteurs HTC : applications au calcul des pertes AC". Phd thesis, Grenoble INPG, 2000. http://tel.archives-ouvertes.fr/tel-00689985.

Texto completo
Resumen
L'apparition des supraconducteurs à Haute Température Critique en 1986 puis leur développement permet maintenant leur utilisation en électrotechnique. Il devient important de connaître précisément leur comportement électromagnétique et notamment leurs pertes. Pour cela, un modèle numérique (éléments finis) a été implanté dans FLUX3D. Les supraconducteurs y sont représentés comme étant parfaitement amagnétiques et régis par une loi en puissance entre le champ électrique et la densité de courant. Cette loi est pour l'instant indépendante de l'induction magnétique. Nous avons été amenés à étudier et comparer différentes formulations (A,3A/3t,fo,TT0O,Âcouplée avec les équations de circuit) permettant d'imposer un champ magnétique extérieur, un courant voire d'inclure un supraconducteur dans un circuit électrique. Le modèle numérique a ensuite été utilisé pour des études quantitatives d'une part, puis qualitatives d'autre part. Une étude détaillée, en champ propre, sur un fil OPIT de Bi-2223 a été menée numériquement, analytiquement et expérimentalement. Ceci a permis de valider l'hypothèse du couplage entre les filaments et a également été l'occasion de comprendre la méthode électrique de mesure de pertes. Le cas d'une bobine possédant deux couches de fils supraconducteurs a ensuite été étudiée. Un modèle analytique de calcul des pertes pour une bobine possédant n couches a alors été développé. Toutes les études de ce mémoire ont également permis de mieux cerner le domaine de validité du modèle de Bean. Les limites d'une loi en puissance avec un courant critique indépendant de l'induction et de la température sont également apparues.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

GIROTTO, IVAN. "Studio della Fisica delle Emulsioni tramite l'utilizzo di Calcolo ad Alte Prestazioni". Doctoral thesis, Università degli studi di Modena e Reggio Emilia, 2021. http://hdl.handle.net/11380/1251098.

Texto completo
Resumen
In questo progetto di tesi abbiamo utilizzato codici altamente ottimizzati, basati su metodo Lattice Boltzmann (LBM), per studiare la fisica di fluidi complessi in 3-dimensioni. Inizialmente, abbiamo sviluppato una applicazione che scala su decine di migliaia di processori, e che implementa un metodo altamente ottimizzato ed efficiente di accesso ai dati in memoria. In particolare, abbiamo ingegnerizzato ed analizzato in dettaglio due nuove strutture dati, aumentando significativamente le potenzialità di vettorizzazione del codice da parte del compilatore, rendendo il codice binario risultante molto più efficiente su architetture basate su tecnologia x86-64, soprattutto se confrontate con strutture dati più comuni come array di strutture (AoS) o strutture di array (SoA). Questo lavoro innovativo nell'ambito di codici basati su LBM, ha consentito di aggiudicarsi due progetti PRACE per centinaia di migliaia di ore calcolo su sistemi HPC europei di tipo Tier-0, come il sistema Marconi CINECA) ed il sistema MareNostrum (BSC). A completamento del lavoro di implementazione, abbiamo anche effettuato una accurata analisi delle prestazioni e del consumo energetico delle nuove strutture dati, rispetto alle architetture presenti sui due supercalcolatori sui quelli ci è stato aggiudicato l'accesso: l'architettura Intel KNL ed Intel Skylake, rispettivamente ai sistemi sopracitati. Per finire, abbiamo anche eseguito il porting del codice su architetture ibride CPU e GPU, come il nuovo sistema Marconi-100 installato di recente al CINECA. È stato implementato e validato il modello Shan-Chen per fluidi multicomponente con interazione al secondo vicino. Questo ha permesso di modellare la dinamica di un fluido a due componenti non immiscibili, caratterizzati da tensione superficiale e una forzante repulsiva tra i due liquidi presenti. L'emulsione viene sottoposta ad una forzante esterna al sistema, che simula la funzione di agitazione, tipica in simulazioni di fluidi turbolenti. Con il codice sviluppato abbiamo iniziato ad esplorare la fisica dell'emulsione: dalla fase iniziale di rottura dell'interfaccia tra i due fluidi, alla fase di mescolamento e, per finire, la fase di riposo in cui la forzante esterna viene spenta, consentendo all'emulsione di compattarsi. Abbiamo effettuato un numero elevato di simulazioni che ci hanno consentito di effettuare una serie di misure quantitative sulla morfologia del sistema, cosi come di effettuarne alcune stime iniziali sull'energia. Questo tipo di analisi sono state effettuate su diversi sistemi, variandone soprattutto la percentuale di volume della componente presente in forma di gocce sparse all'interno di un fluido continuo. Con questo sistema ci siamo potuti spingere fino a creare emulsioni in cui il volume delle gocce sfiora l'80%, limite riportato anche da studi sperimentali. A queste percentuali l'emulsione presenta alta densità e forte pressione tra le gocce, che mostrano una forma non sferica, caratterizzando la composizione di un fluido complesso. Questa analisi è stata effettuata sia osservando l'influenza della forzante esterna rispetto alla composizione finale del fluido, che analizzando come la composizione finale del fluido ne caratterizza il comportamento quando l'emulsione ottenuta è sottoposta ad un flusso esterno (test di Kolmogorov). Le simulazioni effettuate hanno inoltre mostrato come le emulsioni dense siano sistemi fragili e delicati, essendo difficili da ottenere senza incorrere nel problema di inversione di fase. Nella seconda parte del progetto abbiamo ingegnerizzato ed implementato metodo di tracciamento delle gocce all'interno dell'emulsione, che consente di definirne il profilo lagrangiano di ogni singola goccia quando il sistema viene sottoposto ad una forzante
In this project we employed highly optimized codes, based on the multicomponent Lattice Boltzmann model (LBM), to explore the physics of complex fluids in 3-dimensions. We first implemented an LBM based application which delivers good scaling performances on distributed systems while optimising the memory access through a data organisation that enables high computing efficiency. In particular, we first introduced and then deeply analysed, two new clustered data layouts which, enhancing compiler vectorizazion, demonstrated to deliver high-performance on modern x86-64 CPUs, if compared with legacy data layouts typically adopted for LBM based codes such as arrays of structures (AoS) or structures of arrays (SoA). This work aided the award of two PRACE projects for approximately hundreds of millions of core-hours distributed among two major European Tier-0 systems for high-performance computing such as the Marconi at CINECA and the MareNostrum at the Barcelona Supercomputing Centre (BSC). We performed a detailed analysis of the computing performance and energy efficiency on both the CPU systems which equipped those supercomputers: the Intel KNL and the more recent Intel Skylake processor, respectively. In the ultimate stage of the project we also extended the implemented model to run on multi-GPU distributed systems such as the Marconi-100 at CINECA. We implemented and validated the well-established Shan-Chen multicomponent LBM with second neighbour coupling. This allows to model the dynamics of two immiscible fluids characterized by a surface tension as well as by a disjoing pressure between them. The emulsion is stirred via a large scale forcing mimicking a classical stirring often used in spectral simulation of turbulent flows. With the implemented numerical models, we started to explore the physics of complex fluid emulsions: from the phase of turbulent stirring where the emulsion is produced, to the resting phase where the resulting emulsion is in jammed state. In particular, we performed several simulations to achieve a first qualitative measurements on the morphology of the system (i.e., number of droplets, average volume of the droplets, average surface, PDFs of volume and surface) as well as some initial estimation of the energy. We made the analysis at different volume fractions and by pushing the dispersed phase up to about 80%, limit reported by experiments. We observed how the resulting highly-packed emulsions bring up rich phenomenology showing non-spherical droplets, and while presenting feature of a solid in resting phase but still flowing as a fluid if subjected to a forcing. We have analysed the behaviour of the system looking at both, the influence of the flow on the morphology, by stirring at different forcing amplitudes, and the influence of morphology on the flow, by performing Kolmogorov rheology tests on jammed emulsions at different volume fractions. Emulsions are remarkable systems presenting an extremely interesting phenomenology but at the same time being really fragile. Indeed, we have experimented the difficulties of finding the equilibrium between the rate of pushing higher volume fraction and the correct stirring amplitude to achieve turbulence without facing the problem of catastrophic phase inversion. In the second part of the project we engineer and added to the implemented LBM based code a method for tracking all droplets present in a 3-dimensional emulsion at high-resolution, obtaining a Lagrangian profile of all droplets in the dispersed phase of the emulsion both when exposed to large-scale stirring and when the forcing is turn off
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Masini, Filippo. "Coca cola hbc italia: Modello per il calcolo di inventory stock target e production cycles ottimali". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/8060/.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Capra, Antoine. "Virtualisation en contexte HPC". Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0436/document.

Texto completo
Resumen
Afin de répondre aux besoins croissants de la simulation numérique et de rester à la pointe de la technologie, les supercalculateurs doivent d’être constamment améliorés. Ces améliorations peuvent être d’ordre matériel ou logiciel. Cela force les applications à s’adapter à un nouvel environnement de programmation au fil de son développement. Il devient alors nécessaire de se poser la question de la pérennité des applications et de leur portabilité d’une machine à une autre. L’utilisation de machines virtuelles peut être une première réponse à ce besoin de pérennisation en stabilisant les environnements de programmation. Grâce à la virtualisation, une application peut être développée au sein d’un environnement figé, sans être directement impactée par l’environnement présent sur une machine physique. Pour autant, l’abstraction supplémentaire induite par les machines virtuelles entraine en pratique une perte de performance. Nous proposons dans cette thèse un ensemble d’outils et de techniques afin de permettre l’utilisation de machines virtuelles en contexte HPC. Tout d’abord nous montrons qu’il est possible d’optimiser le fonctionnement d’un hyperviseur afin de répondre le plus fidèlement aux contraintes du HPC que sont : le placement des fils d’exécution et la localité mémoire des données. Puis en s’appuyant sur ce résultat, nous avons proposé un service de partitionnement des ressources d’un noeud de calcul par le biais des machines virtuelles. Enfin, pour étendre nos travaux à une utilisation pour des applications MPI, nous avons étudié les solutions et performances réseau d’une machine virtuelle
To meet the growing needs of the digital simulation and remain at the forefront of technology, supercomputers must be constantly improved. These improvements can be hardware or software order. This forces the application to adapt to a new programming environment throughout its development. It then becomes necessary to raise the question of the sustainability of applications and portability from one machine to another. The use of virtual machines may be a first response to this need for sustaining stabilizing programming environments. With virtualization, applications can be developed in a fixed environment, without being directly impacted by the current environment on a physical machine. However, the additional abstraction induced by virtual machines in practice leads to a loss of performance. We propose in this thesis a set of tools and techniques to enable the use of virtual machines in HPC context. First we show that it is possible to optimize the operation of a hypervisor to respond accurately to the constraints of HPC that are : the placement of implementing son and memory data locality. Then, based on this, we have proposed a resource partitioning service from a compute node through virtual machines. Finally, to expand our work to use for MPI applications, we studied the network solutions and performance of a virtual machine
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Chatelain, Yohan. "Outils de débogage et d'optimisation des calculs flottants dans le contexte HPC". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV096.

Texto completo
Resumen
Le Calcul Haute Performance (HPC) est un écosystème dynamique où architectures et codes de calcul scientifiques sont en co-évolution permanente (parallélisme, accélérateurs spécialisés, nouvelles mémoires).Ce dynamisme impose aux développeurs d'adapter leur logiciel régulièrement pour exploiter au mieux tous les nouveaux ressorts technologiques.En cela, les approches de co-design consistant à développer simultanément le logiciel et le matériel sont une voie intéressante.Néanmoins, les efforts de co-design dans le HPC ont surtout été concentrés sur la performance des applications en laissant un peu de côté l'objectif de qualité numérique.Or celle ci est de plus en plus difficile à maintenir d'une génération de supercalculateur à l'autre en raison de la complexité croissante des architectures et des modèles de programmation parallèles. A cela s'ajoute de nouveaux formats de calcul flottants (bfloat16, binary16) qu'il faut réussir à exploiter lors du processus de modernisation.Ces constats posent deux problématiques :1) Comment vérifier la qualité numérique des codes lors du processus de modernisation ? Cela nécessite des outils qui permettent, à la fois d'identifier rapidement des sources d'erreurs numériques mais qui doivent également être simple d'utilisation pour des utilisateurs non-experts.2) Comment tirer parti des nouvelles possibilités qu'offre le matériel ?Les possibilités d'applications sont nombreuses et amènent donc à un espace considérable de solutions possibles. Les solutions trouvées sont le résultat d'un compromis entre performance de l'application et qualité numérique des calculs mais également reproductibilité des résultats.Dans cette thèse, nous avons contribué au logiciel Verificarlo qui aide à la détection d'erreurs numériques en injectant divers modèles de bruit dans les calculs flottants. Plus précisément, nous avons développé une approche permettant d'étudier l'évolution des erreurs numérique au cours du temps. Cet outil est basé sur la génération de traces numériques qui permettent de suivre la qualité numérique des variables au cours du temps. Ces traces sont enrichies par des informations de contexte récupérées lors de la compilation puis peuvent être ensuite visualisées de manière élégante.Nous avons également contribué à VPREC, un modèle de calcul simulant des formats de taille variable. Cet outil a été utilisé pour répondre au problème d'optimisation de formats dans les schémas itératifs. L'optimisation proposée est temporelle puisqu'elle optimise la précision de calcul pour chaque pas de temps.Enfin, une contrainte majeure dans l'élaboration d'outils pour le HPC est la mise à l'échelle. En effet, la taille des codes et la quantité de calcul mis en jeux accroissent drastiquement la complexité des analyses et limitent les approches conventionnelles. Nous avons démontré que les techniques développés dans cette thèse sont applicables sur des codes industriels puisqu'ils ont permis de, premièrement, détecter et corriger une erreur numérique dans le code ABINIT (code ab initio de chimie quantique développé par le CEA et al.). Secondement, ces outils ont permis de réduire la précision de calcul de YALES2 (code de mécanique des fluides développé par le CORIA) et améliorer les performance en réduisant le volumes des communications de 28% et accélérer jusqu'à 1,30 fois l’exécution
High Performance Computing (HPC) is a dynamic ecosystem where scientific computing architectures and codes are in permanent co-evolution (parallelism, specialized accelerators, new memories).This dynamism requires developers to adapt their software regularly to exploit all the new technological innovations.For this purpose, co-design approaches consisting of simultaneously developing software and hardware are an interesting approach.Nevertheless, co-design efforts have mainly focused on application performance without necessarily taking into account the numerical quality.However, this is becoming increasingly difficult to maintain from one generation of supercomputer to the next due to the increased complexity of the hardware and the parallel programming models. In addition, there are new floating point computation formats (bfloat16, binary16) that should be harnessed during the modernization process.These findings raise two issues:1) How to check the digital quality of codes during the modernization process? This requires tools that allow both to quickly identify sources of numerical errors and to be user-friendly for non-expert users.2) How can we take advantage of the new possibilities offered by the equipment?The applications possibilities are manifold and therefore lead to a considerable space of possible solutions. The solutions found are the result of a compromise between the performance of the application and the numerical quality of the computations, but also the reproducibility of the results.In this thesis, we contributed to the Verificarlo software that helps to detect numerical errors by injecting various noise models into floating computations. More precisely, we have developed an approach to study the evolution of numerical errors over time. This tool is based on the generation of numerical traces that allow the numerical quality of the variables to be tracked over time. These traces are enriched by context information retrieved during compilation and can then be viewed in an elegant way.We also contributed to VPREC, a computation model simulating formats of varying sizes. This tool has been used to address the problem of format optimization in iterative schemes. The proposed optimization is temporal since it optimizes the computation precision for each time step.Finally, a major constraint in the development of tools for HPC is the scaling up. Indeed, the size of the codes and the number of computations involved drastically increase the complexity of the analyses and limit conventional approaches. We have demonstrated that the techniques developed in this thesis are applicable to industrial codes since they have made it possible, first, to detect and correct a numerical error in the ABINIT code (ab initio code for quantum chemistry developed by the CEA et al.). Secondly, these tools have reduced the computation accuracy of YALES2 (fluid mechanics code developed by CORIA) and improved performance by reducing communication volumes by 28% and accelerating execution up to 1.30 times
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Magnani, Simone. "analisi delle prestazioni del sistema grafico videocore iv applicato al calcolo generico". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19100/.

Texto completo
Resumen
Il calcolo parallelo rappresenta una risorsa per ridurre i tempi di esecuzione di un qualsiasi problema numerico. Storicamente i programmi erano scritti per essere eseguiti sequenzialmente da una sola unità di calcolo, ad esempio una singola CPU. Le singole unità di calcolo però non erano sempre sufficientemente potenti per eseguire, in un tempo consono, una grande quantità di operazioni. L’idea alla base del calcolo parallelo è di suddividere il lavoro su più unità di calcolo in modo da ridurre il tempo necessario per svolgere la computazione. Portando un esempio più vicino alla quotidianità di tutti, è come avere un lavoro che necessita di molto tempo per essere svolto, così si decide di suddividere il lavoro in sotto-problemi e assegnare ognuno di questi a una persona. Il calcolo parallelo mira proprio a una gestione di problemi complessi dividendoli in sotto-problemi, poi facendo in modo che le unità di calcolo designate collaborino ed eseguano la propria parte per trovare la soluzione. Esistono due macro tipi di unità di calcolo: CPU e GPU; le prime sono più veloci ma con meno possibilità di parallelizzazione, al contrario le GPU sono generalmente più lente ma con un numero di ALU molto maggiore. In particolare verrà confrontato l’uso della GPU rispetto alla CPU su un Raspberry Pi: ovvero una scheda single-board economica, ma abbastanza potente da essere un buono strumento per un programmatore esperto, e un ottimo strumento per chi vuole avvicinarsi alla programmazione parallela.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Pourroy, Jean. "Calcul Haute Performance : Caractérisation d’architectures et optimisation d’applications pour les futures générations de supercalculateurs". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASM028.

Texto completo
Resumen
Les systèmes d'information et les infrastructures de Calcul Haute Performance (HPC) participent activement à l'amélioration des connaissances scientifiques et à l'évolution de nos sociétés. Le domaine du HPC est en pleine expansion et les utilisateurs ont besoin d'architectures de plus en plus puissantes pour analyser le tsunami de données (simulations numériques, objets connectés), prendre des décisions plus complexes (intelligence artificielle), et plus rapides (voitures connectées, météo).Dans ce travail de thèse, nous discutons des différents challenges à relever (consommation électrique, coût, complexité) pour l’élaboration des nouvelles générations de supercalculateurs Exascale. Alors que les applications industrielles ne parviennent pas à utiliser plus de 10% des performances théoriques, nous montrons la nécessité de repenser l’architecture des plateformes, en utilisant notamment des architectures énergétiquement optimisées. Nous présentons alors certaines technologies émergentes permettant leur développement : les mémoires 3D (HBM), la Storage Class Memory (SCM) ou les technologies d’interconnexions photoniques. Ces nouvelles technologies associées à un nouveau protocole de communication (Gen-Z) vont permettre d’exécuter de façon optimale les différentes parties d’une application. Cependant, en l'absence de méthode de caractérisation fine de la performance des codes, ces architectures innovantes sont potentiellement condamnées puisque peu d'experts savent les valoriser.Notre contribution consiste au développement d'une suite de codes (micro-benchmarks) et d’outils d'analyse de performance. Les premiers ont pour objectifs de caractériser finement certaines parties de la microarchitecture. Deux microbenchmarks ont ainsi été développés pour caractériser le système mémoire et les unités de calculs. La deuxième famille d’outils permet d’étudier la performance des applications. Un premier outil permet de suivre l’évolution du trafic du bus mémoire, ressource critique des architectures. Un second outil permet d’obtenir le profil des applications en extrayant et caractérisant les boucles critiques (hot spots).Pour profiter de l’hétérogénéité des plateformes, nous proposons une méthodologie en 5 étapes permettant d’identifier et de caractériser ces nouvelles plateformes, de modéliser les performances d'une application, et enfin de porter son code sur l'architecture choisie. Enfin, nous montrons comment les outils permettent d’accompagner les développeurs pour extraire le maximum des performances d’une architecture. En proposant nos outils en « sources ouvertes », nous souhaitons sensibiliser les utilisateurs à cette démarche et développer une communauté autour du travail de caractérisation et d’analyse de performance
Information systems and High-Performance Computing (HPC) infrastructures play an active role in the improvement of scientific knowledge and the evolution of our societies. The field of HPC is expanding rapidly and users need increasingly powerful architectures to analyze the tsunami of data (numerical simulations, IOT), to make more complex decisions (artificial intelligence), and to make them faster (connected cars, weather).In this thesis work, we discuss several challenges (power consumption, cost, complexity) for the development of new generations of Exascale supercomputers. While industrial applications do not manage to achieve more than 10% of the theoretical performance, we show the need to rethink the architecture of platforms, in particular by using energy-optimized architectures. We then present some of the emerging technologies that will allow their development: 3D memories (HBM), Storage Class Memory (SCM) or photonic interconnection technologies. These new technologies associated with a new communication protocol (Gen-Z) will help to optimally execute the different parts of an application. However, in the absence of a method for fine characterization of code performance, these emerging architectures are potentially condemned since few experts know how to exploit them.Our contribution consists in the development of benchmarks and performance analysis tools. The first aim is to finely characterize specific parts of the microarchitecture. Two microbenchmarks have thus been developed to characterize the memory system and the floating point unit (FPU). The second family of tools is used to study the performance of applications. A first tool makes it possible to monitor the memory bus traffic, a critical resource of modern architectures. A second tool can be used to profile applications by extracting and characterizing critical loops (hot spots).To take advantage of the heterogeneity of platforms, we propose a 5-step methodology to identify and characterize these new platforms, to model the performance of an application, and finally to port its code to the selected architecture. Finally, we show how the tools can help developers to extract the maximum performance from an architecture. By providing our tools in open source, we want to sensitize users to this approach and develop a community around the work of performance characterization and analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Bruned, Vianney. "Analyse statistique et interprétation automatique de données diagraphiques pétrolières différées à l’aide du calcul haute performance". Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS064.

Texto completo
Resumen
Dans cette thèse, on s'intéresse à l’automatisation de l’identification et de la caractérisation de strates géologiques à l’aide des diagraphies de puits. Au sein d’un puits, on détermine les strates géologiques grâce à la segmentation des diagraphies assimilables à des séries temporelles multivariées. L’identification des strates de différents puits d’un même champ pétrolier nécessite des méthodes de corrélation de séries temporelles. On propose une nouvelle méthode globale de corrélation de puits utilisant les méthodes d’alignement multiple de séquences issues de la bio-informatique. La détermination de la composition minéralogique et de la proportion des fluides au sein d’une formation géologique se traduit en un problème inverse mal posé. Les méthodes classiques actuelles sont basées sur des choix d’experts consistant à sélectionner une combinaison de minéraux pour une strate donnée. En raison d’un modèle à la vraisemblance non calculable, une approche bayésienne approximée (ABC) aidée d’un algorithme de classification basé sur la densité permet de caractériser la composition minéralogique de la couche géologique. La classification est une étape nécessaire afin de s’affranchir du problème d’identifiabilité des minéraux. Enfin, le déroulement de ces méthodes est testé sur une étude de cas
In this thesis, we investigate the automation of the identification and the characterization of geological strata using well logs. For a single well, geological strata are determined thanks to the segmentation of the logs comparable to multivariate time series. The identification of strata on different wells from the same field requires correlation methods for time series. We propose a new global method of wells correlation using multiple sequence alignment algorithms from bioinformatics. The determination of the mineralogical composition and the percentage of fluids inside a geological stratum results in an ill-posed inverse problem. Current methods are based on experts’ choices: the selection of a subset of mineral for a given stratum. Because of a model with a non-computable likelihood, an approximate Bayesian method (ABC) assisted with a density-based clustering algorithm can characterize the mineral composition of the geological layer. The classification step is necessary to deal with the identifiability issue of the minerals. At last, the workflow is tested on a study case
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Honore, Valentin. "Convergence HPC - Big Data : Gestion de différentes catégories d'applications sur des infrastructures HPC". Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0145.

Texto completo
Resumen
Le calcul haute performance est un domaine scientifique dans lequel de très complexes et intensifs calculs sont réalisés sur des infrastructures de calcul à très large échelle appelées supercalculateurs. Leur puissance calculatoire phénoménale permet aux supercalculateurs de générer un flot de données gigantesque qu'il est aujourd'hui difficile d'appréhender, que ce soit d'un point de vue du stockage en mémoire que de l'extraction des résultats les plus importants pour les applications.Nous assistons depuis quelques années à une convergence entre le calcul haute performance et des domaines tels que le BigData ou l'intelligence artificielle qui voient leurs besoins en terme de capacité de calcul exploser. Dans le cadre de cette convergence, une grande diversité d'applications doit être traitée par les ordonnanceurs des supercalculateurs, provenant d'utilisateurs de différents horizons pour qui il n'est pas toujours aisé de comprendre le fonctionnement de ces infrastructures pour le calcul distribué.Dans cette thèse, nous exposons des solutions d'ordonnancement et de partitionnement de ressources pour résoudre ces problématiques. Pour ce faire, nous proposons une approche basée sur des modèles mathématiques qui permet d'obtenir des solutions avec de fortes garanties théoriques de leu performance. Dans ce manuscrit, nous nous focalisons sur deux catégories d'applications qui s'inscrivent en droite ligne avec la convergence entre le calcul haute performance et le BigData:les applications intensives en données et les applications à temps d'exécution stochastique.Les applications intensives en données représentent les applications typiques du domaine du calcul haute performance. Dans cette thèse, nous proposons d'optimiser cette catégorie d'applications exécutées sur des supercalculateurs en exposant des méthodes automatiques de partitionnement de ressources ainsi que des algorithmes d'ordonnancement pour les différentes phases de ces applications. Pour ce faire, nous utilisons le paradigme in situ, devenu à ce jour une référence pour ces applications. De nombreux travaux se sont attachés à proposer des solutions logicielles pour mettre en pratique ce paradigme pour les applications. Néanmoins, peu de travaux ont étudié comment efficacement partager les ressources de calcul les différentes phases des applications afin d'optimiser leur temps d'exécution.Les applications stochastiques constituent la deuxième catégorie d'applications que nous étudions dans cette thèse. Ces applications ont un profil différent de celles de la première partie de ce manuscrit. En effet, contrairement aux applications de simulation numérique, ces applications présentent de fortes variations de leur temps d'exécution en fonction des caractéristiques du jeu de données fourni en entrée. Cela est dû à leur structure interne composée d'une succession de fonctions, qui diffère des blocs de code massifs composant les applications intensive en données.L'incertitude autour de leur temps d'exécution est une contrainte très forte pour lancer ces applications sur les supercalculateurs. En effet, l'utilisateur doit réserver des ressources de calcul pour une durée qu'il ne connait pas. Dans cette thèse, nous proposons une approche novatrice pour aider les utilisateurs à déterminer une séquence de réservations optimale qui minimise l'espérance du coût total de toutes les réservations. Ces solutions sont par la suite étendues à un modèle d'applications avec points de sauvegarde à la fin de (certaines) réservations afin d'éviter de perdre le travail réalisé lors des réservations trop courtes. Enfin, nous proposons un profiling d'une application stochastique issue du domaine des neurosciences afin de mieux comprendre les propriétés de sa stochasticité. A travers cette étude, nous montrons qu'il est fondamental de bien connaître les caractéristiques des applications pour qui souhaite élaborer des stratégies efficaces du point de vue de l'utilisateur
Numerical simulations are complex programs that allow scientists to solve, simulate and model complex phenomena. High Performance Computing (HPC) is the domain in which these complex and heavy computations are performed on large-scale computers, also called supercomputers.Nowadays, most scientific fields need supercomputers to undertake their research. It is the case of cosmology, physics, biology or chemistry. Recently, we observe a convergence between Big Data/Machine Learning and HPC. Applications coming from these emerging fields (for example, using Deep Learning framework) are becoming highly compute-intensive. Hence, HPC facilities have emerged as an appropriate solution to run such applications. From the large variety of existing applications has risen a necessity for all supercomputers: they mustbe generic and compatible with all kinds of applications. Actually, computing nodes also have a wide range of variety, going from CPU to GPU with specific nodes designed to perform dedicated computations. Each category of node is designed to perform very fast operations of a given type (for example vector or matrix computation).Supercomputers are used in a competitive environment. Indeed, multiple users simultaneously connect and request a set of computing resources to run their applications. This competition for resources is managed by the machine itself via a specific program called scheduler. This program reviews, assigns andmaps the different user requests. Each user asks for (that is, pay for the use of) access to the resources ofthe supercomputer in order to run his application. The user is granted access to some resources for a limited amount of time. This means that the users need to estimate how many compute nodes they want to request and for how long, which is often difficult to decide.In this thesis, we provide solutions and strategies to tackle these issues. We propose mathematical models, scheduling algorithms, and resource partitioning strategies in order to optimize high-throughput applications running on supercomputers. In this work, we focus on two types of applications in the context of the convergence HPC/Big Data: data-intensive and irregular (orstochastic) applications.Data-intensive applications represent typical HPC frameworks. These applications are made up oftwo main components. The first one is called simulation, a very compute-intensive code that generates a tremendous amount of data by simulating a physical or biological phenomenon. The second component is called analytics, during which sub-routines post-process the simulation output to extract,generate and save the final result of the application. We propose to optimize these applications by designing automatic resource partitioning and scheduling strategies for both of its components.To do so, we use the well-known in situ paradigm that consists in scheduling both components together in order to reduce the huge cost of saving all simulation data on disks. We propose automatic resource partitioning models and scheduling heuristics to improve overall performance of in situ applications.Stochastic applications are applications for which the execution time depends on its input, while inusual data-intensive applications the makespan of simulation and analytics are not affected by such parameters. Stochastic jobs originate from Big Data or Machine Learning workloads, whose performanceis highly dependent on the characteristics of input data. These applications have recently appeared onHPC platforms. However, the uncertainty of their execution time remains a strong limitation when using supercomputers. Indeed, the user needs to estimate how long his job will have to be executed by the machine, and enters this estimation as his first reservation value. But if the job does not complete successfully within this first reservation, the user will have to resubmit the job, this time requiring a longer reservation
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Colin, de Verdière Guillaume. "A la recherche de la haute performance pour les codes de calcul et la visualisation scientifique". Thesis, Reims, 2019. http://www.theses.fr/2019REIMS012/document.

Texto completo
Resumen
Cette thèse vise à démontrer que l'algorithmique et la programmation, dans un contexte de calcul haute performance (HPC), ne peuvent être envisagées sans tenir compte de l'architecture matérielle des supercalculateurs car cette dernière est régulièrement remise en cause.Après avoir rappelé quelques définitions relatives aux codes et au parallélisme, nous montrons que l'analyse des différentes générations de supercalculateurs, présents au CEA lors de ces 30 dernières années, permet de dégager des points de vigilances et des recommandations de bonnes pratiques en direction des développeurs de code.En se reposant sur plusieurs expériences, nous montrons comment viser une performance adaptée aux supercalculateurs et comment essayer d'atteindre la performance portable voire la performance extrême dans le monde du massivement parallèle, incluant ou non l'usage de GPU.Nous expliquons que les logiciels et matériels dédiés au dépouillement graphique des résultats de calcul suivent les mêmes principes de parallélisme que pour les grands codes scientifiques, impliquant de devoir maîtriser une vue globale de la chaîne de simulation. Enfin, nous montrons quelles sont les tendances et contraintes qui vont s'imposer à la conception des futurs supercalculateurs de classe exaflopique, impactant de fait le développement des prochaines générations de codes de calcul
This thesis aims to demonstrate that algorithms and coding, in a high performance computing (HPC) context, cannot be envisioned without taking into account the hardware at the core of supercomputers since those machines evolve dramatically over time. After setting a few definitions relating to scientific codes and parallelism, we show that the analysis of the different generations of supercomputer used at CEA over the past 30 years allows to exhibit a number of attention points and best practices toward code developers.Based on some experiments, we show how to aim at code performance suited to the usage of supercomputers, how to try to get portable performance and possibly extreme performance in the world of massive parallelism, potentially using GPUs.We explain that graphical post-processing software and hardware follow the same parallelism principles as large scientific codes, requiring to master a global view of the simulation chain.Last, we describe tendencies and constraints that will be forced on the new generations of exaflopic class supercomputers. These evolutions will, yet again, impact the development of the next generations of scientific codes
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Calcolo HTC"

1

Reddy, G. Ram Mohana y Kiran M. Mobile Ad Hoc Networks. Taylor & Francis Group, 2020.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Yenké, Blaise Omer. Sauvegarde en parallèle d'applications HPC: Ordonnancement des sauvegardes/reprises d'applications de calcul haute performance dans les environnements dynamiques. Omniscriptum, 2011.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Andruchow, Marcela. El patrimonio plástico de la Facultad de Artes. Teseo, 2022. http://dx.doi.org/10.55778/ts878834498.

Texto completo
Resumen
<p>En este libro se presentan los resultados de dos proyectos de investigación desarrollados por investigadores del Instituto de Historia del Arte Argentino y Americano de la Facultad de Artes, y conservadores-restauradores del Museo de Física de la Facultad de Ciencias Exactas (ambas unidades académicas de la UNLP). Los proyectos se orientaron a poner en valor la colección de arte de la facultad produciendo conocimientos historiográficos y propuestas de conservación para las obras.</p><p>Del total de la colección de aproximadamente 120 obras, que pertenece al Área Museo, Exposiciones y Conservación de la Facultad de Artes, en esta investigación se estudiaron las copias de yeso de esculturas provenientes de Europa y que forman conjuntos representativos del arte griego, románico, gótico y renacentista; además de las esculturas, pinturas, grabados, dibujos y mosaicos realizados y donados por docentes y graduados de la facultad.</p><p>Los resultados de la investigación que componen los contenidos del libro se distribuyen en distintos capítulos que presentan el alcance de los proyectos; el proceso de catalogación de la obra plana de la colección; el proceso de estudio y registro del estado de conservación de la obra plana; los resultados de la investigación de la colección de calcos de yeso; la indagación y diseño de las fichas de relevamiento confeccionadas <em>ad hoc</em> para utilizar en el estudio y registro del estado de conservación de las copias de yeso; el proceso de uso de esa ficha en el relevamiento y, finalmente, la propuesta y los resultados de la indagación en el diseño de estrategias físicas de protección y señalética de los calcos de yeso.</p>
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Reddy, G. Ram Mohana y Kiran M. Mobile Ad Hoc Networks: Bio-Inspired Quality of Service Aware Routing Protocols. Taylor & Francis Group, 2016.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Reddy, G. Ram Mohana y Kiran M. Mobile Ad Hoc Networks: Bio-Inspired Quality of Service Aware Routing Protocols. Taylor & Francis Group, 2016.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Reddy, G. Ram Mohana y Kiran M. Mobile Ad Hoc Networks: Bio-Inspired Quality of Service Aware Routing Protocols. Taylor & Francis Group, 2016.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "Calcolo HTC"

1

Lee, Ho, Jeehyun Kim, Bernard Choi, Joel M. H. Teichman y A. J. Welch. "High-Speed Photographic Evaluation of Retropulsion Momentum Induced by a Laser Calculi Lithotriptor". En ASME 2001 International Mechanical Engineering Congress and Exposition. American Society of Mechanical Engineers, 2001. http://dx.doi.org/10.1115/imece2001/htd-24429.

Texto completo
Resumen
Abstract Since the mid-1980’s, many reports have demonstrated the clinical feasibility of fragmenting urinary and biliary calculi with high power lasers [1,2]. Several lasers such as pulsed dye, alexandrite and holmium:YAG have been successfully used as intracorporeal lithotriptors[3–5]. Calculus fragmentation is produced by the combination of direct thermal energy absorption and laser induced shock waves[5–7]. During this powerful laser-tissue interaction, the calculus is subject to a strong retropulsive momentum caused by particle ejection or laser induced shock waves[8]. If the stone cannot resist this kinetic momentum, it will recoil away from the laser delivery fiber. Then physicians must reorient the fiber to the stone for additional laser irradiation. This cumbersome process makes the procedure inconvenient and difficult and eventually prolongs the operation time. This study is designed to quantify the retropulsive momentum during pulsed laser lithotripsy.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Jee, Anand, Shanidul Hoque y Wasim Arif. "Analysis of non completion probability for cognitive radio ad hoc networks". En 2017 IEEE Calcutta Conference (CALCON). IEEE, 2017. http://dx.doi.org/10.1109/calcon.2017.8280700.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Soto, Julio, Saulo Queiroz y Michele Nogueira. "Um Esquema Cooperativo para Análise da Presença de Ataques EUP em Redes Ad Hoc de Rádio Cognitivo". En Simpósio Brasileiro de Segurança da Informação e de Sistemas Computacionais. Sociedade Brasileira de Computação - SBC, 2012. http://dx.doi.org/10.5753/sbseg.2012.20544.

Texto completo
Resumen
Nas redes ad hoc de rádio cognitivo, os usuários mal intencionados podem tirar proveito das funcionalidades da tecnologia de rádio cognitivo para realizar ataques de emulação de usuário primário (EUP). Nestes ataques, os usuários mal intencionados imitam as características dos usuários licenciados, visando obter prioridade no uso das bandas de radiofrequências licenciadas e ameaçando o funcionamento da rede. A fim de tratar deste problema, trabalhos na literatura utilizam critérios específicos para detecção de ataques EUP. Tais soluções, contudo, não consideram conjuntamente o uso de múltiplos e diferentes critérios que enriquecem o consenso de inferência sobre a presença de um ataque EUP na rede. Diante deste contexto, este trabalho apresenta INCA, um esquema de múltIplos critérios para aNálise Cooperativa da presença de Ataques EUP em redes ad hoc de rádio cognitivo. O esquema INCA é composto por duas fases. Na primeira, cada usuário não licenciado emprega múltiplos critérios para definir uma hipótese individual da presença dos ataques EUP. Na segunda, essas hipóteses são trocadas entre os seus vizinhos e cada usuário não licenciado calcula a probabilidade final da presença de um ataque EUP através do teorema de Bayes. Os resultados de simulação mostram a melhoria e a eficácia da cooperatividade e do uso de múltiplos critérios quando aplicados simultaneamente.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía