En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada, más que en la verdadera distribución .
rdfs:comment |
|
foaf:isPrimaryTopicOf | |
rdfs:label |
|
Is foaf:primaryTopic of | |
dcterms:subject | |
prov:wasDerivedFrom | |
dbpedia-owl:wikiPageID |
|
dbpedia-owl:wikiPageLength |
|
dbpedia-owl:wikiPageOutDegree |
|
Is dbpedia-owl:wikiPageRedirects of | |
dbpedia-owl:wikiPageRevisionID |
|
prop-latam:wikiPageUsesTemplate | |
dbpedia-owl:wikiPageWikiLink | [11 values] |
Is dbpedia-owl:wikiPageWikiLink of |