Mostrar o rexistro simple do ítem

dc.contributor.advisorPan Bermúdez, Carlos Alberto
dc.contributor.advisorCacheda, Fidel
dc.contributor.authorÁlvarez Díaz, Manuel
dc.contributor.otherUniversidade da Coruña. Departamento de Tecnoloxías da Información e as Comunicaciónses_ES
dc.date.accessioned2009-10-27T12:23:05Z
dc.date.available2009-10-27T12:23:05Z
dc.date.issued2007
dc.identifier.isbn978-84-692-8071-3
dc.identifier.urihttp://hdl.handle.net/2183/1000
dc.description.abstract[Resumen] La WWW (World Wide Web) constituye el mayor repositorio de información distribuida y heterogénea jamás construido, En la Web, como en cualquier biblioteca, tan importante como el almacenamiento de la información es disponer de un sistema que permita localizar, acceder y recopilar la que satisface las necesidades de un usuario. La aproximación utilizada más habitualmente para recopilar y localizar información en Internet la constituyen los buscadores basados en técnicas de crawling. Los crawlers son programas software capaces de recorrer la Web automáticamente, recopilando las páginas accedidas para construir un índice que permita búsquedas sobre su contenido. Pueden distinguirse dos tipos de estrategias de crawling: crawling global y crawling dirigido. Las tareas de crawling dirigido están orientadas a un propósito específico. Este tipo de tareas suelen aparecer en el ámbito corporativo y presentan requisitos más complejos que los que pueden satisfacerse con los buscadores convencionales. Sin embargo, los crawlers actuales, tanto globales como dirigidos, sólo pueden acceder a la parte de la Web que se encuentra publicada y enlazada como páginas estáticas. Aunque estas páginas representan una gran cantidad de información, constituyen sólo una pequeña porción de toda la información web disponible. Existe gran cantidad de información que es generada dinámicamente por un servidor en respuesta a acciones del usuario. El ejemplo más paradigmático lo constituyen las páginas generadas como respuesta a una consulta efectuada por un usuario sobre un formulario web. A esta porción de la Web suele denominársele 'Web Oculta' (Hidden Web) o 'Web Profunda' (Deep Web). Una gran parte de la información contenida en la Web Oculta tiene una estructura latente.es_ES
dc.language.isospaes_ES
dc.subjectArquitecturaes_ES
dc.titleArquitectura para Crawling dirigido de información contenida en la web ocultaes_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES
dc.rights.thesisOs titulares dos dereitos de propiedade intelectual autorizan a visualización do contido desta tese a través de Internet, así como a súa reproducción, gravación en soporte informático ou impresión para o seu uso privado e/ou con fins de estudo e de investigación. En nengún caso se permite o uso lucrativo deste documento. Estos dereitos afectan tanto ó resumo da tese como o seu contidoen
dc.rights.thesisLos titulares de los derechos de propiedad intelectual autorizan la visualización del contenido de esta tesis a través de Internet, así como su repoducción, grabación en soporte informático o impresión para su uso privado o con fines de investigación. En ningún caso se permite el uso lucrativo de este documento. Estos derechos afectan tanto al resumen de la tesis como a su contenidoen
dc.rights.accessinfo:eu-repo/semantics/openAccesses_ES


Ficheiros no ítem

Thumbnail

Este ítem aparece na(s) seguinte(s) colección(s)

Mostrar o rexistro simple do ítem