Minimum Divergence Methods in Statistical Machine Learning (eBook)

Minimum Divergence Methods in Statistical Machine Learning (eBook)

Komori OsamuEguchi Shinto
Komori OsamuEguchi Shinto
Prezzo:
€ 121,67
Compra EPUB
Prezzo:
€ 121,67
Compra EPUB

Formato

:
EPUB
Cloud: Scopri di più
Lingua: en
Editore: Springer
Codice EAN: 9784431569220
Anno pubblicazione: 2023
Scopri QUI come leggere i tuoi eBook

Note legali

NOTE LEGALI

a) Garanzia legale, Pagamenti, Consegne, Diritto di recesso
b) Informazioni sul prezzo
Il prezzo barrato corrisponde al prezzo di vendita al pubblico al lordo di IVA e al netto delle spese di spedizione
Il prezzo barrato dei libri italiani corrisponde al prezzo di copertina.
I libri in inglese di Libraccio sono di provenienza americana o inglese.
Libraccio riceve quotidianamente i prodotti dagli USA e dalla Gran Bretagna, pagandone i costi di importazione, spedizione in Italia ecc.
Il prezzo in EURO è fissato da Libraccio e, in alcuni casi, può discostarsi leggermente dal cambio dollaro/euro o sterlina/euro del giorno. Il prezzo che pagherai sarà quello in EURO al momento della conferma dell'ordine.
In ogni caso potrai verificare la convenienza dei nostri prezzi rispetto ad altri siti italiani e, in moltissimi casi, anche rispetto all'acquisto su siti americani o inglesi.
c) Disponibilità
I termini relativi alla disponibilità dei prodotti sono indicati nelle Condizioni generali di vendita.

Disponibilità immediata
L'articolo è immediatamente disponibile presso Libraccio e saremo in grado di procedere con la spedizione entro un giorno lavorativo.
Nota: La disponibilità prevista fa riferimento a singole disponibilità.

Disponibile in giorni o settimane (ad es. "3-5-10 giorni", "4-5 settimane" )
L'articolo sarà disponibile entro le tempistiche indicate, necessarie per ricevere l'articolo dai nostri fornitori e preparare la spedizione.
Nota: La disponibilità prevista fa riferimento a singole disponibilità.

Prenotazione libri scolastici
Il servizio ti permette di prenotare libri scolastici nuovi che risultano non disponibili al momento dell'acquisto.

Attualmente non disponibile
L'articolo sarà disponibile ma non sappiamo ancora quando. Inserisci la tua mail dalla scheda prodotto attivando il servizio Libraccio “avvisami” e sarai contattato quando sarà ordinabile.

Difficile reperibilità
Abbiamo dei problemi nel reperire il prodotto. Il fornitore non ci dà informazioni sulla sua reperibilità, ma se desideri comunque effettuare l'ordine, cercheremo di averlo nei tempi indicati. Se non sarà possibile, ti avvertiremo via e-mail e l'ordine verrà cancellato.
Chiudi

Descrizione

This book explores minimum divergence methods of statistical machine learning for estimation, regression, prediction, and so forth, in which we engage in information geometry to elucidate their intrinsic properties of the corresponding loss functions, learning algorithms, and statistical models. One of the most elementary examples is Gauss's least squares estimator in a linear regression model, in which the estimator is given by minimization of the sum of squares between a response vector and a vector of the linear subspace hulled by explanatory vectors. This is extended to Fisher's maximum likelihood estimator (MLE) for an exponential model, in which the estimator is provided by minimization of the Kullback-Leibler (KL) divergence between a data distribution and a parametric distribution of the exponential model in an empirical analogue. Thus, we envisage a geometric interpretation of such minimization procedures such that a right triangle is kept with Pythagorean identity in the sense of the KL divergence. This understanding sublimates a dualistic interplay between a statistical estimation and model, which requires dual geodesic paths, called m-geodesic and e-geodesic paths, in a framework of information geometry. We extend such a dualistic structure of the MLE and exponential model to that of the minimum divergence estimator and the maximum entropy model, which is applied to robust statistics, maximum entropy, density estimation, principal component analysis, independent component analysis, regression analysis, manifold learning, boosting algorithm, clustering, dynamic treatment regimes, and so forth. We consider a variety of information divergence measures typically including KL divergence to express departure from one probability distribution to another. An information divergence is decomposed into the cross-entropy and the (diagonal) entropy in which the entropy associates with a generative model as a family of maximum entropy distributions; the cross entropy associates with a statistical estimation method via minimization of the empirical analogue based on given data. Thus any statistical divergence includes an intrinsic object between the generative model and the estimation method. Typically, KL divergence leads to the exponential model and the maximum likelihood estimation. It is shown that any information divergence leads to a Riemannian metric and a pair of the linear connections in the framework of information geometry. We focus on a class of information divergence generated by an increasing and convex function U, called U-divergence. It is shown that any generator function U generates the U-entropy and U-divergence, in which there is a dualistic structure between the U-divergence method and the maximum U-entropy model. We observe that a specific choice of U leads to a robust statistical procedurevia the minimum U-divergence method. If U is selected as an exponential function, then the corresponding U-entropy and U-divergence are reduced to the Boltzmann-Shanon entropy and the KL divergence; the minimum U-divergence estimator is equivalent to the MLE. For robust supervised learning to predict a class label we observe that the U-boosting algorithm performs well for contamination of mislabel examples if U is appropriately selected. We present such maximal U-entropy and minimum U-divergence methods, in particular, selecting a power function as U to provide flexible performance in statistical machine learning.