omitir hasta el contenido
Boosting : foundations and algorithms Ver este material de antemano
CerrarVer este material de antemano
Chequeando…

Boosting : foundations and algorithms

Autor: Robert E Schapire; Yoav Freund
Editorial: Cambridge, MA : MIT Press, ©2012.
Serie: Adaptive computation and machine learning.
Edición/Formato:   Libro-e : Documento : Inglés (eng)Ver todas las ediciones y todos los formatos
Base de datos:WorldCat
Calificación:

(todavía no calificado) 0 con reseñas - Ser el primero.

Temas
Más materiales como éste

 

Encontrar un ejemplar en línea

Enlaces a este material

Encontrar un ejemplar en la biblioteca

&AllPage.SpinnerRetrieving; Encontrando bibliotecas que tienen este material…

Detalles

Género/Forma: Electronic books
Formato físico adicional: Print version:
Schapire, Robert E.
Boosting.
Cambridge, MA : MIT Press, c2012
(DLC) 2011038972
(OCoLC)758388404
Tipo de material: Documento, Recurso en Internet
Tipo de documento: Recurso en Internet, Archivo de computadora
Todos autores / colaboradores: Robert E Schapire; Yoav Freund
ISBN: 9780262301183 0262301180
Número OCLC: 794669892
Descripción: 1 online resource (xv, 526 p.) : ill.
Contenido: Foundations of machine learning --
Using AdaBoost to minimize training error --
Direct bounds on the generalization error --
The margins explanation for boosting's effectiveness --
Game theory, online learning, and boosting --
Loss minimization and generalizations of boosting --
Boosting, convex optimization, and information geometry --
Using confidence-rated weak predictions --
Multiclass classification problems --
Learning to rank --
Attaining the best possible accuracy --
Optimally efficient boosting --
Boosting in continuous time.
Título de la serie: Adaptive computation and machine learning.
Responsabilidad: Robert E. Schapire and Yoav Freund.

Reseñas

Reseñas editoriales

Resumen de la editorial

"This excellent book is a mind-stretcher that should be read and reread, even bynonspecialists." -- Computing Reviews "Boosting is, quite simply, one of the best-written books I've read on machine Leer más

 
Reseñas contribuidas por usuarios
Recuperando reseñas de GoodReads…
Recuperando reseñas de DOGObooks…

Etiquetas

Ser el primero.

Materiales similares

Confirmar este pedido

Ya ha pedido este material. Escoja OK si desea procesar el pedido de todos modos.

Datos enlazados


<http://www.worldcat.org/oclc/794669892>
library:oclcnum"794669892"
library:placeOfPublication
library:placeOfPublication
rdf:typeschema:Book
rdf:typeschema:MediaObject
rdf:valueUnknown value: dct
schema:about
schema:about
schema:about
schema:about
schema:about
schema:bookFormatschema:EBook
schema:contributor
schema:copyrightYear"2012"
schema:creator
schema:datePublished"2012"
schema:description"Foundations of machine learning -- Using AdaBoost to minimize training error -- Direct bounds on the generalization error -- The margins explanation for boosting's effectiveness -- Game theory, online learning, and boosting -- Loss minimization and generalizations of boosting -- Boosting, convex optimization, and information geometry -- Using confidence-rated weak predictions -- Multiclass classification problems -- Learning to rank -- Attaining the best possible accuracy -- Optimally efficient boosting -- Boosting in continuous time."@en
schema:exampleOfWork<http://worldcat.org/entity/work/id/1032229637>
schema:genre"Electronic books"@en
schema:inLanguage"en"
schema:isPartOf
schema:name"Boosting foundations and algorithms"@en
schema:numberOfPages"526"
schema:publication
schema:publisher
schema:url<http://search.ebscohost.com/login.aspx?direct=true&scope=site&db=nlebk&db=nlabk&AN=458478>
schema:url<http://ieeexplore.ieee.org/xpl/bkabstractplus.jsp?bkn=6267536>
schema:url<http://site.ebrary.com/lib/alltitles/Doc?id=10569012>
schema:url<http://www.myilibrary.com?id=365528>
schema:url<http://site.ebrary.com/id/10569012>
schema:workExample
wdrs:describedby

Content-negotiable representations

Cerrar ventana

Inicie una sesión con WorldCat 

¿No tienes una cuenta? Puede fácilmente crear una cuenta gratuita.