En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación de dos variables aleatorias es una cantidad que mide la dependencia mutua de las dos variables, es decir, mide la reducción de la incertidumbre de una variable aleatoria, X, debido al conocimiento del valor de otra variable aleatoria Y.
rdfs:comment |
|
foaf:isPrimaryTopicOf | |
rdfs:label |
|
Is foaf:primaryTopic of | |
dcterms:subject | |
prov:wasDerivedFrom | |
dbpedia-owl:wikiPageID |
|
dbpedia-owl:wikiPageLength |
|
dbpedia-owl:wikiPageOutDegree |
|
Is dbpedia-owl:wikiPageRedirects of | |
dbpedia-owl:wikiPageRevisionID |
|
prop-latam:wikiPageUsesTemplate | |
dbpedia-owl:wikiPageWikiLink | [15 values] |
Is dbpedia-owl:wikiPageWikiLink of |