dc.contributor.author |
Miranda, Carlos Henríquez |
es |
dc.contributor.author |
Alberto Guzmán, Jaime |
es |
dc.date |
Julio - Diciembre |
es |
dc.date.accessioned |
2015-06-16T19:04:07Z |
|
dc.date.available |
2015-06-16T19:04:07Z |
|
dc.date.issued |
2012 |
|
dc.identifier.issn |
1692-8261 |
|
dc.identifier.uri |
http://hdl.handle.net/11619/1243 |
|
dc.description.abstract |
En la actualidad nos encontramos con un alto exceso de información representado en un gran número de documentos electrónicos localizados en distintos lugares y en diferentes formatos. Por ejemplo, la Web, contenedor más grande de conocimiento, ofrece una gran cantidad de información plasmada en diferentes presentaciones como Wikis, blogs, portales, redes sociales entre otras. En el caso de las Wiki se encuentra información proveniente de un grupo de usuarios en diferentes disciplinas, donde se puede extraer conocimiento valioso de sus contenidos. El problema radica en que son representados casi siempre en lenguaje natural, haciendo que la búsqueda y recuperación sea un proceso complejo para los usuarios interesados. Debido a esto, el área de extracción de información se encarga de extraer a partir de recursos, datos útiles dependiendo de una necesidad de información. El enfoque de este trabajo es usar la extracción de información para recuperar automáticamente planes de tareas desde la Web y llevarlos a un proceso de automatización bajo el enfoque de la planificación automática. En este artículo, se presenta el resultado de investigación parcial de un modelo propuesto para la extracción, particularmente se muestran los resultados de las herramientas de extracción y pre procesamiento. |
es |
dc.description.abstract |
Abstract: Currently we have a high excess of information represented in a large number of digital documents located in different places and in different formats. For example the Web, larger container of knowledge, provides a lot of information embodied in different forms such as Wikis, blogs, websites, social networks and more. In the case of the Wiki is information from a group of users in different disciplines, which can extract valuable knowledge of its contents. The problem is that they are represented mostly in natural language, making search and retrieval be a complex process for users interested. Because of this, extraction area is responsible for extracting information from resources, useful data depending on an information need. The focus of this paper is to use data mining to automatically extract task plans from the Web and take it to an automation process under the automatic planning approach. This article presents the results of partial investigation of a proposed model for the extraction, particularly shows the results of extraction tools and pre processing. |
en |
dc.language.iso |
es |
es |
dc.publisher |
Universidad Autónoma del Caribe |
es |
dc.relation.ispartofseries |
Vol. 10 No. 2 Pág. 74-80 |
|
dc.subject |
Extracción Información |
es |
dc.subject |
Planificación Automática |
es |
dc.subject |
Extracción Web |
es |
dc.subject |
PDDL |
es |
dc.subject |
Wrapper |
es |
dc.subject |
Information Extraction |
es |
dc.subject |
Automatic Planning |
es |
dc.subject |
Web Extractions |
es |
dc.title |
Modelo de extracción de información desde recursos web para aplicaciones de la planificación automática |
es |
dc.title.alternative |
Model information extraction from the web based on design patterns |
es |
dc.type |
Article |
es |