En computación, precisión arbitraria (ó bignum por big number, "número grande" en inglés) es un método que permite la representación, en un programa informático, de números ya sean enteros ó racionales con tantos dígitos de precisión como cuanto sea deseado y además posibilita la realización de operaciones aritméticas sobre dichos números. Los números son normalmente almacenados como arrays de dígitos utilizando la base binaria u otra base para la representación.
rdfs:comment |
|
foaf:isPrimaryTopicOf | |
rdfs:label |
|
Is foaf:primaryTopic of | |
dcterms:subject | |
Is skos:subject of | |
rdf:type | |
prov:wasDerivedFrom | |
dbpedia-owl:wikiPageID |
|
dbpedia-owl:wikiPageLength |
|
dbpedia-owl:wikiPageOutDegree |
|
Is dbpedia-owl:wikiPageRedirects of | |
dbpedia-owl:wikiPageRevisionID |
|
dbpedia-owl:wikiPageWikiLink | [31 values] |
Is dbpedia-owl:wikiPageWikiLink of | [15 values] |