aller au contenu
Statistical learning theory and stochastic optimization : Ecole d'Eté de Probabilités de Saint-Flour XXXI-2001 Aperçu de cet ouvrage
FermerAperçu de cet ouvrage
Vérifiant…

Statistical learning theory and stochastic optimization : Ecole d'Eté de Probabilités de Saint-Flour XXXI-2001

Auteur : Olivier Catoni; Jean Picard; LINK (Online service)
Éditeur : Berlin : Springer-Verlag, ©2004.
Collection : Lecture notes in mathematics (Springer-Verlag), 1851.
Édition/format :   Livre électronique : Document : Publication de conférence : AnglaisVoir toutes les éditions et les formats
Base de données :WorldCat
Résumé :
Statistical learning theory is aimed at analyzing complex data with necessarily approximate models. This book is intended for an audience with a graduate background in probability theory and statistics. It will be useful to any reader wondering why it may be a good idea, to use as is often done in practice a notoriously "wrong'' (i.e. over-simplified) model to predict, estimate or classify. This point of view takes  Lire la suite...
Évaluation :

(pas encore évalué) 0 avec des critiques - Soyez le premier.

Sujets
Plus comme ceci

 

Trouver un exemplaire en ligne

Liens vers cet ouvrage

Trouver un exemplaire dans la bibliothèque

&AllPage.SpinnerRetrieving; Recherche de bibliothèques qui possèdent cet ouvrage...

Détails

Genre/forme : Electronic books
Conference proceedings
Congresses
Format – détails additionnels : Print version:
Catoni, Olivier.
Statistical learning theory and stochastic optimization.
Berlin : Springer-Verlag, ©2004
(DLC) 2004109143
(OCoLC)56714791
Type d’ouvrage : Publication de conférence, Document, Ressource Internet
Format : Ressource Internet, Fichier informatique
Tous les auteurs / collaborateurs : Olivier Catoni; Jean Picard; LINK (Online service)
ISBN : 9783540445074 3540445072
Numéro OCLC : 56508135
Notes : " ... 31st Probability Summer School in Saint-Flour (July 8-25, 2001) ..."--Preface.
Description : 1 online resource (viii, 272 pages) : illustrations.
Contenu : Universal Lossless Data Compression --
Links Between Data Compression and Statistical Estimation --
Non Cumulated Mean Risk --
Gibbs Estimators --
Randomized Estimators and Empirical Complexity --
Deviation Inequalities --
Markov Chains with Exponential Transitions --
References --
Index.
Titre de collection : Lecture notes in mathematics (Springer-Verlag), 1851.
Autres titres : Ecole d'Eté de Probabilités de Saint-Flour XXXI-2001
Responsabilité : Olivier Catoni ; editor, Jean Picard.
Plus d’informations :

Résumé :

e. over-simplified) model to predict, estimate or classify. This point of view takes its roots in three fields: information theory, statistical mechanics, and PAC-Bayesian theorems. Results on the  Lire la suite...

Critiques

Critiques éditoriales

Synopsis de l’éditeur

From the reviews: "This book is based on a course of lectures given by the author on a circle of ideas lying at the interface of information theory, statistical learning theory and statistical Lire la suite...

 
Critiques d’utilisateurs
Récupération des critiques de GoodReads...
Récuperation des critiques DOGObooks…

Tags

Soyez le premier.
Confirmez cette demande

Vous avez peut-être déjà demandé cet ouvrage. Veuillez sélectionner OK si vous voulez poursuivre avec cette demande quand même.

Données liées


<http://www.worldcat.org/oclc/56508135>
library:oclcnum"56508135"
library:placeOfPublication
library:placeOfPublication
owl:sameAs<info:oclcnum/56508135>
rdf:typeschema:Book
schema:about
schema:about
schema:about
schema:about
schema:about
<http://id.worldcat.org/fast/1012127>
rdf:typeschema:Intangible
schema:name"Mathematical statistics"@en
schema:name"Mathematical statistics."@en
schema:about
schema:about
schema:bookFormatschema:EBook
schema:contributor
schema:contributor
schema:contributor
schema:copyrightYear"2004"
schema:creator
schema:datePublished"2004"
schema:description"Universal Lossless Data Compression -- Links Between Data Compression and Statistical Estimation -- Non Cumulated Mean Risk -- Gibbs Estimators -- Randomized Estimators and Empirical Complexity -- Deviation Inequalities -- Markov Chains with Exponential Transitions -- References -- Index."@en
schema:description"Statistical learning theory is aimed at analyzing complex data with necessarily approximate models. This book is intended for an audience with a graduate background in probability theory and statistics. It will be useful to any reader wondering why it may be a good idea, to use as is often done in practice a notoriously "wrong'' (i.e. over-simplified) model to predict, estimate or classify. This point of view takes its roots in three fields: information theory, statistical mechanics, and PAC-Bayesian theorems. Results on the large deviations of trajectories of Markov chains with rare transitions are also included. They are meant to provide a better understanding of stochastic optimization algorithms of common use in computing estimators. The author focuses on non-asymptotic bounds of the statistical risk, allowing one to choose adaptively between rich and structured families of models and corresponding estimators. Two mathematical objects pervade the book: entropy and Gibbs measures. The goal is to show how to turn them into versatile and efficient technical tools, that will stimulate further studies and results."@en
schema:exampleOfWork<http://worldcat.org/entity/work/id/14473764>
schema:genre"Conference proceedings"@en
schema:genre"Conference proceedings."@en
schema:genre"Electronic books."@en
schema:inLanguage"en"
schema:name"Ecole d'Eté de Probabilités de Saint-Flour XXXI-2001"@en
schema:name"Statistical learning theory and stochastic optimization Ecole d'Eté de Probabilités de Saint-Flour XXXI-2001"@en
schema:publisher
schema:url<http://dx.doi.org/10.1007/b99352>
schema:url<http://rave.ohiolink.edu/ebooks/ebc/11305972>
schema:url<http://www.springerlink.com/openurl.asp?genre=issue&issn=0075-8434&volume=1851>
schema:url
schema:url<http://springerlink.metapress.com/link.asp?id=MT30WFT73522>
schema:workExample

Content-negotiable representations

Fermer la fenêtre

Veuillez vous identifier dans WorldCat 

Vous n’avez pas de compte? Vous pouvez facilement créer un compte gratuit.