Come tradurre «Gradiente geotermico - Geothermal gradient»

Traduttore

Geothermal gradient

Reduced Gradient Bubble Model

Il Reduced Gradient Bubble Model è un algoritmo di decompressione usato in molti computer subacquei, inizialmente in quelli della casa di produzione Mares e Suunto e, ultimamente, anche in molti altri. Lalgoritmo in questione considera, ai fini del calcolo delle tappe di decompressione e del profilo di immersione, sia lazoto disciolto nellorganismo sia quello gassoso in modo da consentire una sicura desaturazione del subacqueo, prevenendo così la crescita eccessiva delle dimensioni delle microbolle, sempre presenti, senza però pregiudicare troppo la durata dellimmersione.

Gradiente adiabatico secco

Il gradiente adiabatico secco è la velocità con cui una particella daria secca che si muove verticalmente si scalda o si raffredda. Corrisponde sempre a 0.976 °C ogni 100 metri, ed è un coefficiente ideale, in quanto non dipende dalla temperatura esterna ma dalla pressione.

Energia a gradiente salino

L energia a gradiente salino è lenergia ottenuta dalla differenza nella concentrazione del sale fra lacqua di mare e lacqua dolce.

Discesa stocastica del gradiente

Gradient boosting

Gradient boosting è una tecnica di machine learning di regressione e problemi di Classificazione statistica che producono un modello predittivo nella forma di un insieme di modelli predittivi deboli, tipicamente alberi di decisione. Costruisce un modello in maniera simile ai metodi di boosting, e li generalizza permettendo lottimizzazione di una funzione di perdita differenziabile arbitraria. Lidea del gradient boosting è nata dallosservazione di Leo Breiman quel potenziamento può essere interpretato come un algoritmo di ottimizzazione su una funzione di costo adeguata. Gli algoritmi i gradient boosting con regressione esplicita da Jerome H. Friedman simultaneamente con la più generale prospettiva di gradient boosting funzionale di Llew Mason, Jonathan Baxter, Peter Bartlett and Marcus Frean. Questi ultimi 2 articoli introdussero la visione astratta degli algoritmi di boosting come algoritmi di gradienti funzionali discendenti iterativi; ovvero gli algoritmi che ottimizzano una funzione costo su una funzione spazio scegliendo iterativamente una funzione ipotesi debole che punti ad una direzione con gradiente negativo. Questa visione del gradiente funzionale del boosting ha portato allo sviluppo di algoritmi di boosting in diverse aree del machine learning e della statistica che vanno oltre la regressione e la classificazione.

Problema della scomparsa del gradiente

Il problema della scomparsa del gradiente è un fenomeno che crea difficoltà nelladdestramento delle reti neurali profonde tramite retropropagazione dellerrore mediante discesa stocastica del gradiente. In tale metodo, ogni parametro del modello riceve ad ogni iterazione un aggiornamento proporzionale alla derivata parziale della funzione di perdita rispetto al parametro stesso. Una delle principali cause è la presenza di funzioni di attivazione non lineari classiche, come la tangente iperbolica o la funzione logistica, che hanno gradiente a valori nellintervallo {\displaystyle }. Poiché nellalgoritmo di retropropagazione i gradienti ai vari livelli vengono moltiplicati tramite la regola della catena, il prodotto di n {\displaystyle n} numeri in {\displaystyle } decresce esponenzialmente rispetto alla profondità n {\displaystyle n} della rete. Quando invece il gradiente delle funzioni di attivazione può assumere valori elevati, un problema analogo che può manifestarsi è quello dellesplosione del gradiente. La retropropagazione dellerrore permise di addestrare le reti neurali tramite apprendimento supervisionato, ma i primi tentativi ebbero limitato successo e nel 1991, nella sua tesi di laurea, Sepp Hochreiter attribuì questa difficoltà al problema da lui chiamato "scomparsa del gradiente", che affligge sia le reti neurali feed-forward profonde sia quelle ricorsive, che dal punto di vista dellapprendimento sono equivalenti a reti profonde, in quanto vengono "srotolate" rispetto alla direzione temporale, con un livello per ogni intervallo di tempo.

Discesa del gradiente

In ottimizzazione e analisi numerica il metodo di discesa del gradiente è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili. Il metodo è stato sviluppato - e pubblicato nel 1847 - dal matematico francese Augustin-Louis Cauchy nel tentativo di risolvere il problema di determinare lorbita di un corpo celeste a partire dalle sue equazioni del moto.

Forza di gradiente

La forza di gradiente è una forza generata dalla differenza di pressione attraverso una superficie: date due regioni a pressione differente in un mezzo, tale differenza genera unaccelerazione dal punto di pressione più alta a quello di pressione più bassa. Laccelerazione è diversa da zero in accordo con la seconda legge di Newton, se non ci sono altre forze addizionali che la bilanciano. In un fluido in cui la forza risultante è nulla, il sistema si dice in equilibrio idrostatico. Nel caso dellatmosfera, tale equilibrio è ottenuto dal bilanciamento fra la forza di gravità e la forza di gradiente. Ad esempio nellatmosfera terrestre la pressione dellaria decresce allaumentare dellaltezza rispetto alla superficie terrestre: si genera così una forza di gradiente che contrasta lattrazione gravitazionale del pianeta sullatmosfera.

Gradiente termico verticale

Il gradiente termico verticale è il valore che indica quanto violentemente varia la temperatura dellaria al variare della quota. In atmosfera standard, equivale a −6.5 °C ogni 1 000 m, ma in realtà può allontanarsi molto da questo valore a seconda delle condizioni atmosferiche e del luogo considerato.

Gradiente di concentrazione

In chimica, il gradiente di concentrazione è il gradiente associato ad una differenza di concentrazione di una stessa specie chimica tra due volumi adiacenti, che si può instaurare allinterfaccia tra due fasi, per esempio alle estremità di una membrana semipermeabile. Nel caso in cui la specie chimica in questione sia uno ione, si parla più precisamente di gradiente ionico.

Texture gradient

Texture gradient is the distortion in size which closer objects have compared to objects farther away. It also involves groups of objects appearing denser as they move farther away. Also could be explained by noticing a certain amount of detail depending on how close something is, giving a sense of depth perception. There are three main forms of texture gradient: density, perspective, and distortion of texture elements. Texture gradient is carefully used in the painting Paris Street, Rainy Day by Gustave Caillebotte. Texture gradient was used in a study of child psychology in 1976 and studied by Sidney Weinstein in 1957. In 2000, a paper about the texture gradient equation, wavelets, and shape from texture was released by Maureen Clerc and Stephane Mallat.

Deinococcus geothermalis

Deinococcus geothermalis is a bacterium. It produces orange-pigmented colonies and has an optimum growth temperature of about 45 °C to 50 °C. It is extremely gamma radiation-resistant. Its type strain is AG-3a. A space mission called EXPOSE-R2 was launched on 24 July 2014 aboard the Russian Progress M-23M, and was attached on 18 August 2014 outside the ISS on the Russian module Zvezda. The two main experiments will test the resistance of a variety of extremophile microorganisms, including Deinococcus geothermalis to long-term exposure to outer space and to a Mars simulated environment.

Geothermal gradient

Geothermal gradient is the rate of increasing temperature with respect to increasing depth in Earths interior. Away from tectonic plate boundaries, it is about 25–30 °C/km of depth near the surface in most of the world. Strictly speaking, geo -thermal necessarily refers to Earth but the concept may be applied to other planets. Earths internal heat comes from a combination of residual heat from planetary accretion, heat produced through radioactive decay, latent heat from core crystallization, and possibly heat from other sources. The major heat-producing isotopes in Earth are potassium-40, uranium-238, uranium-235, and thorium-232. At the center of the planet, the temperature may be up to 7.000 K and the pressure could reach 360 GPa 3.6 million atm. Because much of the heat is provided by radioactive decay, scientists believe that early in Earth history, before isotopes with short half-lives had been depleted, Earths heat production would have been much higher. Heat production was twice that of present-day at approximately 3 billion years ago, resulting in larger temperature gradients within the Earth, larger rates of mantle convection and plate tectonics, allowing the production of igneous rocks such as komatiites that are no longer formed.

Histogram of oriented gradients

The histogram of oriented gradients is a feature descriptor used in computer vision and image processing for the purpose of object detection. The technique counts occurrences of gradient orientation in localized portions of an image. This method is similar to that of edge orientation histograms, scale-invariant feature transform descriptors, and shape contexts, but differs in that it is computed on a dense grid of uniformly spaced cells and uses overlapping local contrast normalization for improved accuracy. Robert K. McConnell of Wayland Research Inc. first described the concepts behind HOG without using the term HOG in a patent application in 1986. In 1994 the concepts were used by Mitsubishi Electric Research Laboratories. However, usage only became widespread in 2005 when Navneet Dalal and Bill Triggs, researchers for the French National Institute for Research in Computer Science and Automation INRIA, presented their supplementary work on HOG descriptors at the Conference on Computer Vision and Pattern Recognition CVPR. In this work they focused on pedestrian detection in static images, although since then they expanded their tests to include human detection in videos, as well as to a variety of common animals and vehicles in static imagery.

Hydraulic gradient

Spatial gradient

A spatial gradient is a gradient whose components are spatial derivatives, i.e., rate of change of a given scalar physical quantity with respect to the position coordinates. Homogeneous regions have spatial gradient vector norm equal to zero. When evaluated over altitude or depth, it is called vertical gradient. Examples: Biology Concentration gradient, the ratio of solute concentration between two adjoining regions Potential gradient, the difference in electric charge between two adjoining regions Fluid dynamics and earth science Pressure gradient Temperature gradient Geothermal gradient Sound speed gradient Density gradient Lapse rate Wind gradient

Surface gradient

In vector calculus, the surface gradient is a vector differential operator that is similar to the conventional gradient. The distinction is that the surface gradient takes effect along a surface. For a surface S {\displaystyle S} in a scalar field u {\displaystyle u}, the surface gradient is defined and notated as ∇ S u = ∇ u − n ^ n ^ ⋅ ∇ u {\displaystyle \nabla _{S}u=\nabla u-\mathbf {\hat {n}} \mathbf {\hat {n}} \cdot \nabla u} where n ^ {\displaystyle \mathbf {\hat {n}} } is a unit normal to the surface. Examining the definition shows that the surface gradient is the conventional gradient with the component normal to the surface removed subtracted, hence this gradient is tangent to the surface. In other words, the surface gradient is the orthographic projection of the gradient onto the surface. The surface gradient arises whenever the gradient of a quantity over a surface is important. In the study of capillary surfaces for example, the gradient of spatially varying surface tension doesnt make much sense, however the surface gradient does and serves certain purposes.

Ruling gradient

The term ruling grade is usually used as a synonym for "steepest climb" between two points on a railroad. More simply, the steepest grade to be climbed dictates how powerful the locomotive must be in order to complete the run without assistance. Even if 99% of the line could be run with a light locomotive, if at some point on the line there is a steeper gradient that a light engine would be unable to climb, this gradient "rules" that a more powerful locomotive must be used, in spite of it being far too powerful for the rest of the line. This is why special "helper engines" are often stationed near steep grades on otherwise mild tracks, because it is cheaper than running a too-powerful locomotive over the entire track mileage just in order to make the grade, especially when multiple trains run over the line each day. In the 1953 edition of railway engineering William H. hay says "the ruling grade may be defined as the maximum gradient to which a tonnage train can be hauled with one locomotive.The ruling class does not necessarily have the maximum gradient on the division. Momentum grades, pusher grades, or those that must regularly be twice the tonnage of trains can be heavier". This means that the "ruling class" can change if management decides to work on the railroad in different ways.

Four-gradient

Selection gradient

A selection gradient describes the relationship between a character trait and a species’ relative fitness. A trait may be a physical characteristic, such as height or eye color, or behavioral, such as flying or vocalizing. Changes in a trait, such as the amount of seeds a plant produces or the length of a bird’s beak, may improve or reduce their relative fitness. Understanding how changes in a trait affect fitness helps evolutionary biologists understand the nature of evolutionary pressures on a population.