Secciones
Referencias
Resumen
Servicios
Descargas
HTML
ePub
PDF
Buscar
Fuente


Desarrollo de Sistema para Vigilancia Estratégica de Redes Sociales y Medios de Prensa Digitales mediante Web Scraping
Development of a System for Strategic Surveillance of Social Networks and Digital Press Media using Web Scraping
Latin-American Journal of Computing, vol.. 9, núm. 1, 2022
Escuela Politécnica Nacional

Latin-American Journal of Computing
Escuela Politécnica Nacional, Ecuador
ISSN: 1390-9266
ISSN-e: 1390-9134
Periodicidad: Semestral
vol. 9, núm. 1, 2022

Publicación: 03 Enero 2022


Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.

Resumen: Desde el punto de vista de los sistemas de información empresariales, ha surgido la necesidad de crear herramientas que faciliten las tareas de Vigilancia Estratégica. En la actualidad, el laboratorio ADA de la Facultad de Ingeniería de Sistemas de la Escuela Politécnica Nacional está ejecutando varios proyectos distribuidos en diferentes fases cuya meta final es desarrollar esta suite de Vigilancia Estratégica. El presente proyecto pertenece a la (tercera) fase denominada “Recolección de Información”, cuyo objetivo es desarrollar un sistema de recolección de información automatizado, optimizando los tiempos de búsqueda y reduciendo la sobrecarga de información. La herramienta desarrollada permite búsquedas sobre medios de prensa digitales relevantes y pre-establecidos y las redes sociales Twitter, Facebook, Instagram y LinkedIn.

El proyecto se ha desarrollado siguiendo los lineamientos definidos por Scrum y se basa en el patrón Modelo – Vista – Controlador. Además, el sistema ha sido evaluado por el Modelo de Aceptación Tecnológica (TAM). Los resultados de evaluación muestran que más del 80% de los encuestados consideran que el sistema posee facilidad de uso. Sin embargo, el 100% coincide respecto a la utilidad percibida del sistema en cuanto a la recolección de información: éste cumple con su objetivo orientado a recopilar información de las redes sociales y medios de prensa digitales que sea útil en el proceso de toma de decisiones basado en la Vigilancia Estratégica.

Palabras clave: Vigilancia Estratégica, Recolección de Información, Redes Sociales, Medios Digitales.

Abstract: From the point of view of business information systems, the need to create tools that facilitate the tasks of Strategic Surveillance has arisen. Currently, the ADA laboratory of the Faculty of Systems Engineering of the National Polytechnic School is executing several projects distributed in different phases whose final goal is to develop this Strategic Surveillance suite. This project belongs to the (third) phase called "Information Collection". Thus, the objective of the project is to develop an automated information collection system which optimizes search times and reduces information overload. The developed tool allows the search to be carried out on relevant and pre-established digital press media and the social networks Twitter, Facebook, Instagram, and LinkedIn.

The project has been developed following the guidelines defined by Scrum and is based on the Model - View - Controller pattern. In addition, the system has been evaluated by the Technological Acceptance Model (TAM). The evaluation results show that more than 80% of the respondents consider that the system is easy to use. However, 100% of them coincide with respect to the perceived usefulness of the system in terms of collecting information: it fulfills its objective of collecting information that is the input in the decision-making process based on Strategic Scanning.

Keywords: Strategic Scanning, Information Collection, Social Networks, Digital Media.

I. Introducción

Una organización debe resistir a los cambios y evoluciones que se producen en su entorno. Es por esto por lo que, hoy en día, la mayoría de las organizaciones realizan, en mayor o menor grado, actividades de Vigilancia Estratégica (conocida también como Strategic Scanning). La Vigilancia Estratégica es una alternativa que permite a la organización mantenerse al corriente con las tendencias y evoluciones de su entorno, identificar amenazas, oportunidades, anticipar cambios y soportar los procesos de toma de decisiones [1].

La Vigilancia Estratégica es un proceso organizacional que implica la recolección y análisis de información con el objetivo de soportar las actividades de toma de decisiones estratégicas en una organización [1]. Dicha información puede ser obtenida de noticias, informes, comentarios, redes sociales y medios digitales relacionados al ámbito de la organización. Una vez recopilados los datos, éstos son analizados para ser convertidos en conocimiento que permita a las gerencias tomar decisiones que sean de beneficio para la organización [2].

Resulta paradójico, sin embargo, que en la era en la cual el Internet facilita el acceso a cantidades infinitas de información, las fuentes más útiles y que alimentan los sistemas de Vigilancia Estratégica son más bien directas: observaciones de terreno, comentarios recabados en conferencias donde participa la organización, “chismes” de clientes y proveedores, entre otras. De hecho, resulta necesario entender que, a pesar de los grandes avances en informática (Big Data, Smart Data, Procesamiento Natural de Lenguaje, etc.), la mayor parte del proceso de recolección de información reposa aún en las capacidades de las personas que colaboran en la institución. Es por este motivo que, el rol de la tecnología es sobre todo de soporte y no de remplazo al personal que trabaja en este proceso [2].

En el entorno económico de una organización existe una gran cantidad de información, pero no toda puede ser recolectada y analizada, ni tampoco toda esa información posee un valor estratégico útil sobre el devenir de la empresa. Debido a estos antecedentes, y con el fin de prevenir problemas de sobrecarga de información, se debe limitar el entorno o perímetro de vigilancia con la identificación de la lista de actores a vigilar, las interrelaciones entre los actores, los temas, la lista de fuentes de información a escudriñar y las palabras clave que permitirán buscar información de una problemática general en Ecuador [2].

Una vez definido el alcance de Vigilancia Estratégica, se procede a recolectar información con el fin de obtener y almacenar datos relevantes que agilicen el proceso de toma de decisiones de la organización. Dicha información puede ser obtenida de diversas fuentes como: bases de datos, Internet, personas, noticias u opiniones [3]. En lo que respecta a fuentes provenientes del Internet, esta búsqueda puede ser automatizada gracias a la utilización de herramientas y algoritmos de recolección de información como APIs y Web Spiders.

El Departamento de Informática y Ciencias de la Computación (DICC) de la Facultad de Ingeniería en Sistemas de la Escuela Politécnica Nacional, tiene como línea de investigación la Computación Aplicada a los Sistemas de Información. Dentro del DICC se está ejecutando el programa de investigación Tyche (Fig. 1). Este proyecto está organizado en varias fases que están siendo apoyadas por el desarrollo de proyectos de titulación. En el presente proyecto, que es parte de la tercera fase, se propone desarrollar una herramienta que, dado el perímetro proporcionado por la segunda fase del programa de investigación “Tyche”, permitirá la recolección de información relevante para organizaciones ecuatorianas como las de tipo pymes de manufactura de Quito.

La información será recolectada de redes sociales en línea como: Twitter, Facebook, Instagram y LinkedIn; y también se recolectará información de 5 medios de prensa en idioma español que sean digitales e influyentes en Latinoamérica. Este proceso es continuo ya que esta información debe ser siempre actualizada, con el fin de ser útil a la toma de decisiones. Esto agilizará la recopilación de información relevante, disminuyendo el esfuerzo humano. La información de Vigilancia Estratégica de este proyecto servirá para organizaciones de cualquier tamaño y que operen en cualquier dominio de actividad, como las pymes de manufactura de Quito que están interesadas en usar información que les permita reducir la incertidumbre de su toma de decisiones estratégicas. Así, la solución propuesta permitirá optimizar la búsqueda de esta información a la vez que se toman precauciones para reducir la sobrecarga de la misma.


Fig. 1
Proyectos de investigación del programa “Tyche”

II. Fundamento Teórico

A. Vigilancia Estratégica

En la actualidad, se accede a un exceso de información que, por su naturaleza, requiere ser procesada y filtrada para dejar de lado la que sea de baja calidad. La información a nivel comercial, o que trate temas sobre tecnología, competencia o entorno es absolutamente ineludible para tomar decisiones estratégicas y para anticiparse a los hechos en las organizaciones [4]. Sin embargo, el identificar la información de mejor calidad y la más relevante no es tarea sencilla. Entonces, la Vigilancia Estratégica entra aquí como un conjunto de acciones que una organización tiene que gestionar y poner en marcha para acceder a la información apropiada en el tiempo adecuado y que le permita tomar las decisiones convenientes [5].

El sistema de Vigilancia Estratégica se compone de tres tareas fundamentales:

  1. 1. Recoger la información que la empresa necesita.
  2. 2. Transformar toda esa información en conocimiento
  3. 3. Valorar ese conocimiento y hacerlo llegar a las personas adecuadas de la organización.

De acuerdo con [6], al implementar un sistema de Vigilancia Estratégica en una organización, el objetivo que se quiere alcanzar se centra principalmente en los siguientes aspectos:

  • Anticipar los cambios: detectar con la máxima antelación posible las eventualidades más importantes que se puedan producir en el entorno de la empresa.

  • Minimizar riesgos: identificar amenazas que aparezcan como consecuencia de nuevos productos, normativas o competidores, y tomar las decisiones adecuadas respecto a la elección de nuevas tecnologías.

  • Comparar: se trata de valorar tanto los puntos fuertes como las posibles debilidades contrastando frente a los de la competencia y en relación con las necesidades de los clientes.

  • Innovar: localizar y definir oportunidades de mejora, así como ideas revolucionarias en el mercado.

  • Cooperar: identificar oportunidades para colaborar con otras empresas y encontrar socios apropiados.

Entonces, el proceso de Vigilancia Estratégica que debe seguirse es [7]:

  • Establecer las necesidades de información que tiene la organización e identificar los factores cruciales de vigilancia.

  • Definir las fuentes y tipos de información relevantes, comprender la factibilidad de acceso y elegir los medios de extracción y seguimiento de la información.

  • Obtener la información.

Una vez extraída la información, se la debe analizar y ampliar cuando sea necesario; además, las personas correspondientes deben tener fácil acceso a esta información para que finalmente puedan utilizarla en la toma de decisiones.

Es así como, mediante la Vigilancia Estratégica en una organización, la gerencia es capaz de identificar y monitorizar las tendencias en la cadena de valor de sus clientes, proveedores y entorno. Asimismo, se puede obtener información de valor estratégico de manera focalizada y continuada para reducir el riesgo en la toma de decisiones [7].

El aspecto más importante para su implementación es lograr que el sistema de vigilancia se adapte a la organización de forma particular, exclusiva y “personalizada”. En otras palabras, se debe focalizar en las necesidades reales de la empresa de forma que se responda a lo que realmente se quiere y se necesita.

B. Web Scraping

Actualmente, al poseer una vasta cantidad de información sobre diversos temas y tratar de obtener datos relevantes para una organización que trabaje con Vigilancia Estratégica, llega a ser necesario implementar técnicas de recopilación, organización y filtrado de datos que puedan controlar mejor la cantidad inmensa de información y además ayuden a que las organizaciones puedan procesarla de manera más eficiente.

Web Scraping es un proceso que usa bots, spiders o crawlers para extraer contenido y datos de un sitio web. De esta forma, se extrae el código HTML y junto con él, los datos almacenados en la base de datos [8].

Durante el Web Scraping se extraen y almacenan datos de páginas web para analizarlos o utilizarlos después. Gracias a este raspado web, se almacenan diversos tipos de información, por ejemplo, datos de contacto, tales como direcciones de correo electrónico, números de teléfono, también términos de búsqueda o URL [9]. El Web Scraping se aplica en diversas tareas, por ejemplo, para recopilar datos de consumo, interacciones o información especial con gran rapidez. En el ámbito profesional, el scraping se utiliza frecuentemente para obtener ventajas respecto a la competencia [10].

El lenguaje de programación más utilizado para scrapear es Python [11], ya que tiene varias librerías para este fin: Scrapy, BeautifulSoup y Selenium. La más conocida y utilizada es probablemente Scrapy, que es un framework, y permite administrar peticiones, preservar sesiones de usuario y seguir redirecciones. Una de las mayores ventajas de Scrapy es que es muy eficiente y es capaz de scrapear más cantidad, más rápido y a menos coste de CPU que las otras alternativas [12].

C. Modelo de Aceptación Tecnológica

El Modelo de Aceptación Tecnológica, definido por sus siglas como TAM, fue propuesto por Davis en 1989 y se desarrolló con base en la Teoría de Acción Razonada (TRA) [13]. El objetivo es predecir la aceptación de los sistemas de información por los usuarios en las organizaciones que permita garantizar el éxito de su implementación [14]. En TAM se buscó establecer los criterios para comprender la intención conductual del uso. Entre los hallazgos se encontró que esta intención está influenciada más bien por una actitud individual que tiene dos factores determinantes: la utilidad percibida y la facilidad de uso percibida [14].

En total, hay cuatro variables principales en TAM que determinan el uso efectivo de la tecnología, como se explica en la Fig. 2 [15].


Fig. 2
Modelo de Aceptación de la Tecnología (TAM)
[12]

De acuerdo con TAM, las variables externas influyen de manera directa en la Utilidad Percibida y en la Facilidad de Uso Percibida. Es así como las variables externas participan de forma indirecta en la actitud a través del uso y la intención de uso. La Facilidad de Uso Percibida tiene un efecto causal en la Utilidad Percibida, además del efecto significativo de esta variable en la actitud del usuario (un sentimiento en favor o en contra) hacia el uso del sistema [15]. En investigaciones posteriores se elimina Actitud a través del uso del modelo debido a que las medidas experimentales de esta variable no entregan evidencia suficiente para mantenerla.

III. Arquitectura del Sistema

La arquitectura que se usó para la realización del sistema es Modelo – Vista – Controlador (MVC) la cual tiene como base el esquema descrito en la Fig. 3.

Como primer paso, el usuario realiza una solicitud al controlador con la información sobre lo que desea realizar. Entonces el Controlador llama y decide a quien delegar la tarea, como siguiente paso, el Modelo se encarga de realizar las operaciones para cumplir con la solicitud. Una vez terminadas las operaciones, se regresa al Controlador los resultados el cual procede a la Vista. Finalmente, la Vista procesa y envía los datos de manera que sea visualmente entendible para el usuario.


Fig. 3
Modelo MVC

IV. Metodología Scrum

Scrum es la metodología a ser utilizada en el desarrollo del sistema, el cual es un marco de trabajo que facilita el proceso de desarrollo de software iterativo y utilizado, comúnmente, en entornos basados en desarrollo ágil de software [16]. La realización del proyecto bajo la metodología Scrum permitirá realizar entregas de software funcional y útil para la organización. Además, se prioriza la respuesta a cambios y nuevos requerimientos, lo que genera una retroalimentación continua y una comunicación eficaz con el cliente. El desarrollo del proyecto en iteraciones facilita la división de tareas y asignación de tiempos de trabajo para los desarrolladores [17].

Dado este escenario para el proyecto y la metodología a aplicarse, las fases con sus actividades de acuerdo con el proceso planteado por Scrum son [18]:

  • Inicio: Identificar al Scrum Máster, Stakeholder(s) y Equipo Scrum [19], desarrollar las épicas, crear la lista priorizada del Backlog y realizar el plan de lanzamiento.

  • Planificación: Crear las Historias de Usuario, comprometer Historias de Usuario, identificar tareas, aplicar el proceso de estimación de Historias de Usuario y tareas y crear el Sprint Backlog.

  • Implementación: crear entregables, realizar Daily Standup y refinar el Backlog priorizado del proyecto.

  • Revisión y Retrospectiva: Demostrar y validar el Sprint, realizar la retrospectiva del Sprint.

  • Lanzamiento: Preparar y enviar entregables y realizar retrospectiva del Proyecto.

A. Product Backlog

Las historias de usuario se definieron con criterios de aceptación, mismos que son considerados como criterios para comprobar si una historia de usuario fue desarrollada según la expectativa del dueño del producto y si esto se cumple.

Definidas las épicas y features se presenta el Product Backlog priorizado, el cual está detallado en la Tabla I.

Notación:

  • HU: Historias de Usuario

  • ID: Identificador

  • Ez: Esfuerzo estimado

TABLA I
Product Backlog Priorizado

B. Planificación de Lanzamiento

Con el fin de permitir al equipo Scrum tener una visión global de las características a implementarse y cuándo éstas se completarán, se planificó, qué Historias de Usuario debían desarrollarse para cada Sprint, tomando en cuenta los puntos de esfuerzo (Tabla II). La duración de cada Sprint fue fijada en 2 semanas.

TABLA II
Planificación de Lanzamiento

C. Ejecución de Sprints

La ejecución de los Sprints se realizó con base al plan de entregas definido previamente, la misma que se actualizó y adaptó al final de cada Sprint para cubrir los nuevos requerimientos y cambios en el producto. Como ejemplo, se muestra la ejecución del Sprint 1, que da inicio al proceso de recolección de información con técnicas de web Scraping.

Ejemplo: Ejecución de Sprint 1

En este Sprint se definió realizar una investigación sobre el acceso a las APIs de redes sociales y también la aplicación de web Scraping en 5 medios de prensa digitales en español más influyentes de Latinoamérica.

Planificación del Sprint 1

Equipo Scrum se reunió para definir la lista del Product Backlog a realizarse en este Sprint, indicando cuáles serán los entregables junto con los criterios de aceptación de las Historias de Usuario.

Objetivos del Sprint 1

  • Elegir los 5 medios de presa digitales más influyentes de Latinoamérica.

  • Extraer información de los medios de prensa elegidos.

  • Visualizar la información obtenida de la ejecución de los spiders en la web.

  • Extraer información de usuarios o páginas públicas de las redes sociales mediante sus APIs o librerías.

Revisión del Sprint 1

El Sprint 1 fue revisado por el Equipo Scrum de acuerdo con los criterios de aceptación de las Historias de Usuario descritos en la Tabla III alcanzando con éxito la meta del Sprint 1 y cumpliendo con cada funcionalidad planteada.

TABLA III
Criterios de aceptación de las HU del Sprint 1

En el Burndown Chart que corresponde al Sprint 1 se resume el desempeño del Equipo de desarrollo realizado durante cada uno de los días del Sprint (Fig. 4).


Fig. 4
Burndown chart del Sprint 1

En Burndown chart, se indica la fecha de inicio y fecha de finalización del Sprint. El equipo de desarrollo Scrum ha completado el 100% de las Historias de Usuario asignadas. Como se observa, se presentó retrasos en los primeros días del sprint debido a que el equipo necesitó un Spike (tiempo orientado a la investigación o experimentación). Este fue necesario para realizar la investigación sobre el manejo de limitaciones de las APIs de redes sociales, sin embargo, se encontró soluciones óptimas como el replanteamiento de los criterios de aceptación de la HU040 para así lograr el objetivo planteado del Sprint 1.

Retrospectiva del Sprint 1

Con el objetivo de seguir mejorando la productividad del Equipo Scrum en el desarrollo del presente proyecto, se plantea en la Tabla IV un resumen general del Sprint 1, además de las acciones de mejora para aplicar en el siguiente Sprint.

TABLA IV
Sprint 1 en Resumen

V. Discusión

El sistema fue sometido a pruebas funcionales y de aceptación (TAM). Para validar la funcionalidad de la aplicación se establecieron casos de prueba que permitan demostrar si se cumplen o no los requerimientos de desarrollo prefinidos. Por otra parte, para las pruebas TAM, se realizaron pruebas al sistema con la colaboración de cinco grupos de seis participantes cada uno, los participantes fueron estudiantes que tenían conocimientos relacionados al proceso de SScan los cuales, al finalizar, respondieron una encuesta que utilizó preguntas relacionadas con los parámetros en los que se basa TAM.

Con base en los resultados obtenidos se concluye que el sistema es intuitivo. Sin embargo, se puede recomendar que los usuarios que manejen el sistema deben tener un conocimiento previo de definiciones clave de Vigilancia Estratégica. Además, al momento del despliegue del sistema, los usuarios finales deben cumplir con un proceso de training para el uso óptimo de las funcionalidades que éste ofrece, dado que los resultados de evaluación reportan que el sistema cuenta con una aprobación del 83% en cuanto a la facilidad de uso.

Para la recolección de información a partir de las distintas fuentes disponibles del sistema, es importante mencionar que, debido a las diferentes técnicas de extracción de información, es un reto solventar todos los desafíos que se presentan al trabajar con Web Scraping. Por ejemplo, uno de ellos es el tiempo excesivo de carga de los sitios web de donde se desea extraer información, inclusive existe la posibilidad de que no se cargue las páginas debido a que reciben demasiadas solicitudes de acceso. Por un lado, esto no es un problema cuando personalmente navegamos por el sitio ya que solo se necesita volver a cargar la página web y esperar que el sitio responda; pero, en contraste, un scraper no conoce cómo lidiar con tal inconveniente por lo cual dentro del sistema se controla dichas peticiones generando un tiempo considerable de espera para los usuarios que trabajen al mismo tiempo con el sistema.

VI. Conclusiones

La aplicación de la metodología Scrum en el presente proyecto permitió el rápido avance en su realización, ya que al tener una comunicación diaria con todo el Equipo Scrum se pudo solventar de manera eficiente cualquier inconveniente que se presentara, así también obtener retroalimentaciones al final de cada Sprint con el fin de asegurar el cumplimiento de cada funcionalidad requerida por el Product Owner.

El trabajo con las APIs de las redes sociales fue un reto en el presente proyecto, ya que, en medida del crecimiento de la mala práctica del uso de la data, las APIs de redes sociales actualmente han impuesto restricciones para los desarrolladores y analistas de datos. Por este motivo, para el cumplimiento de las metas del proyecto, se trabajó con librerías actualizadas al tiempo de desarrollo de este sistema, año 2021, respetando las políticas de seguridad de cada red social.

El sistema web ayuda a disminuir tiempo y esfuerzo para encontrar información precisa y útil para compartir con la comunidad de Vigilancia Estratégica, ya que aprovecha la ventaja de trabajar con Web Scraping al permitir recolectar información y contenido de forma rápida y actual. Este antecedente es valorado en gran medida considerando la sobrecarga de información a la que están sometidas las organizaciones.

Los resultados de las pruebas muestran que de manera general, el trabajo desarrollado logra cumplir con los objetivos propuestos como lo es el proceso de recolección de información de las redes sociales y medio digitales propuestos.

Para el sistema es importante el principio de usabilidad con el fin de que los usuarios finales puedan emplearlo de manera fácil, intuitiva y sin complicaciones que afecten la recolección de información que alimenta al proceso de Vigilancia Estratégica. Entonces, de acuerdo con los resultados recopilados después de la evaluación, el sistema presenta una aceptación del 83% de parte de los participantes respecto a su facilidad de uso.

Referencias

[1] F. J. Aguilar. Scanning the business environment. New York, USA: Macmillan, 1967.

[2] H. Lesca, and N. Lesca. Weak signals for strategic intelligence: anticipation tool for managers, London, UK: ISTE-Wiley, 2011.

[3] E. Loza-Aguirre, and A. Buitrago, “Qualitative assessment of user acceptance within Action Design Research and Action Research: two case studies,” Latin American Journal of Computing, vol. 1, no. 1, pp. 12-12, 2014.

[4] A. Carbonell Martínez, “Vigilancia tecnológica e inteligencia competitiva al servicio de la innovación,” Universitat Politècnica de València, España, 2019.

[5] CMI Gestión, “Vigilancia Estratégica como ventaja competitiva,” [Online]. Available: https://cmigestion.es/2017/03/07/ vigilancia-estrategica-como-ventaja-competitiva/. [Accessed: Mar.16, 2021].

[6] CIDEI, “Vigilancia Estratégica,” [Online]. Available: http://cidei.net/vigilancia-estrategica/ [Accessed: Mar.07, 2021].

[7] A. Carbonell Martínez, “Vigilancia tecnológica e inteligencia competitiva al servicio de la innovación. 3C Tecnología.,” Glosas de innovación aplicadas a la pyme, vol. 8(4), pp. 61-69, 2019.

[8] Antevenio, “Qué es el web scraping, para qué sirve y como suele utilizarse,” . (2021). [Online]. Available: https://www.antevenio .com/blog/2019/03/que-es-el-web-scraping-y-para-que-sirve/ [Accessed: Mar.20, 2021].

[9] IONOS Digitalguide, “¿Qué es el web scraping?,” [Online]. Available: https://www.ionos.es/digitalguide/paginas-web/desarrollo-web/que-es-el-web-scraping/ [Accessed: Jul.26, 2021].

[10] MINTIC, “¿Qué es web scraping? Curso de Python,” [Online]. Available: https://mintic.platzi.com/clases/1698-mintic-python/7118-que-es-web-scrapi-6/ [Accessed: Abr.04, 2021].

[11] A. Visus, “¿Para qué sirve Python? Razones para utilizar este lenguaje de programación,” Esic Business & Marketing School. [Online]. Available: https://www.esic.edu/rethink/tecnologia/para-que-sirve-python [Accessed: Abr.10, 2021].

[12] A. Lafuente, “Qué es el web scraping,” Aukera. [Online]. Available: https://aukera.es/blog/web-scraping/ [Accessed: Abr.18, 2021].

[13] D. Leyton, “Extensión al Modelo de Aceptación de Tecnología TAM,” Repositorio uchile.cl, 2013.

[14] V. Del Campo, and F. Scholborgh, “Modelo de Aceptación Tecnológica (TAM),” Revista Espacios, vol. 41, no. 37, pp. 159-171, 2020.

[15] J. Yong, J. Rivas and J. Chaparro, “Modelo de aceptación tecnológica (TAM): un estudio de la influencia de la cultura nacional y del perfil del usuario en el uso de las TIC,” Sistema de Información Científica Redalyc, Red de Revistas Científicas, Colombia, 2009.

[16] J. J. Diaz Ortiz, and M. A. Romero Suarez, “Desarrollo e implementación de un aplicativo web, utilizando la metodología Scrum, para mejorar el proceso de atención al cliente en la empresa Z Aditivos SA,” 2017.

[17] M. Trigás Gallego, “Metodología Scrum,” 2012

[18] G. Mancuzo, “Fases de la Metodología Scrum”. ComparaSoftware Blog, 2020.

[19] Softeng, “Proceso y Roles de Scrum,” [Online]. Available: https://www.softeng.es/es-es/empresa/metodologias-de-trabajo/ metodologia-scrum/proceso-roles-de-scrum.html [Accessed: May.05, 2020].

Enlace alternativo



Buscar:
Ir a la Página
IR
Modelo de publicación sin fines de lucro para conservar la naturaleza académica y abierta de la comunicación científica
Visor de artículos científicos generados a partir de XML-JATS4R