En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada, más que en la verdadera distribución .

rdfs:comment
  • En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada, más que en la verdadera distribución . (es)
foaf:isPrimaryTopicOf
rdfs:label
  • Entropía cruzada (es)
Is foaf:primaryTopic of
dcterms:subject
prov:wasDerivedFrom
dbpedia-owl:wikiPageID
  • 1022657 (xsd:integer)
dbpedia-owl:wikiPageLength
  • 1274 (xsd:integer)
dbpedia-owl:wikiPageOutDegree
  • 11 (xsd:integer)
Is dbpedia-owl:wikiPageRedirects of
dbpedia-owl:wikiPageRevisionID
  • 65068441 (xsd:integer)
prop-latam:wikiPageUsesTemplate
dbpedia-owl:wikiPageWikiLink [11 values]
Is dbpedia-owl:wikiPageWikiLink of