El estándar de exclusión de robots, también conocido como el protocolo de la exclusión de robots o protocolo de robots. txt es un método para evitar que ciertos bots que analizan los sitios Web u otros robots que investigan todo o una parte del acceso de un sitio Web, público o privado, agreguen información innecesaria a los resultados de búsqueda.

rdfs:comment
  • El estándar de exclusión de robots, también conocido como el protocolo de la exclusión de robots o protocolo de robots. txt es un método para evitar que ciertos bots que analizan los sitios Web u otros robots que investigan todo o una parte del acceso de un sitio Web, público o privado, agreguen información innecesaria a los resultados de búsqueda. (es)
foaf:homepage
foaf:isPrimaryTopicOf
rdfs:label
  • Estándar de exclusión de robots (es)
Is foaf:primaryTopic of
dcterms:subject
prov:wasDerivedFrom
dbpedia-owl:wikiPageExternalLink
dbpedia-owl:wikiPageID
  • 856493 (xsd:integer)
dbpedia-owl:wikiPageLength
  • 6061 (xsd:integer)
dbpedia-owl:wikiPageOutDegree
  • 16 (xsd:integer)
Is dbpedia-owl:wikiPageRedirects of
dbpedia-owl:wikiPageRevisionID
  • 75796740 (xsd:integer)
prop-latam:wikiPageUsesTemplate
dbpedia-owl:wikiPageWikiLink [16 values]
Is dbpedia-owl:wikiPageWikiLink of [12 values]