MODELO LORI
LORI es el acronimo para Learning Object Repository Interface, (Interfaz de Repositorio de Objetos de Aprendizaje, que es un estandar con el cual podemos evaluar la calidad de RED's o Recurso Educativo Digital.
El principal proposito de LORI es ofrecer una forma estandar para que los RED puedan ser construidos con bases de calidad, donde se pueda acceser, recuperar y utilizar objetos de forma coherente, facilitando la integracion de los contenidos de diferentes fuentes en las actividades de un RED.
Criterios de Evaluacion
1. Calidad del contenido
2. Correspondencia con el objetivo o competencia.
3. Retroalimentacion o adaptacion.
4. Motivacion.
5. Diseño y presentacion.
6. Interaccion y usabilidad.
7. Accesibilidad.
8. Reusabilidad.
9. Cumplimiento de normas.
Metrica o escala de valoracion
El recurso debe ser evaluado por su creador, por los usuarios finales o por un experto conocedor del tema, la escala de valoracion usada es la siguiente, si el criterio no aplica este no se implementa.
Mediante un escala de valoracion que va desde 1 hasta 5, se le asigna una puntuacion a cada uno delos descriptores de las 9 categorías que permita a las paersonas relacionadas con el proceso de diseño, seleccion y uso del recurso, dar seguimiento al mismo para así hacer seguimiento y tomar acciones en su mejoramiento continuo.
Instrumento de Evaluacion
Sigue este enlace para ver el instrumento de evaluacion adaptado para este modelo de evaluacion Instrumento de Evaluacion LORI
___________________________________________________________________________________
MODELOS FURPS
El modelo FURPS, desarrollado por Robert Grady en 1987, es un enfoque de ingeniería de software utilizado para definir y evaluar los requisitos de un sistema de software. La sigla FURPS representa cinco categorías principales de requisitos.
Criterios de Evaluacion
Funcionalidad: Los criterios de evaluación de funcionalidad se centran en las capacidades y características del sistema que deben cumplir con las necesidades y expectativas del usuario. Algunos criterios comunes incluyen:
- Complejidad de las funciones requeridas.
- Eficacia en la realización de tareas específicas.
- Exactitud en la salida de datos y resultados.
- Facilidad de uso y navegación.
Usabilidad: Los criterios de evaluación de usabilidad se refieren a la facilidad de uso y la experiencia del usuario al interactuar con el sistema. Algunos criterios comunes incluyen:
- Intuitividad de la interfaz de usuario.
- Eficiencia en la realización de tareas.
- Atractivo visual y diseño ergonómico.
- Tolerancia a errores y capacidad de recuperación.
Confiabilidad: Los criterios de evaluación de confiabilidad se relacionan con la capacidad del sistema para funcionar correctamente y de manera consistente bajo diversas condiciones. Algunos criterios comunes incluyen:
- Tasa de fallos y tiempo medio entre fallos.
- Capacidad de recuperación ante errores y fallos.
- Mantenibilidad y facilidad de corrección de errores.
- Tolerancia a fallos y redundancia.
Desempeño: Los criterios de evaluación de desempeño se centran en la velocidad, eficiencia y capacidad de respuesta del sistema ante diferentes cargas de trabajo. Algunos criterios comunes incluyen:
- Tiempo de respuesta del sistema.
- Capacidad de procesamiento y uso de recursos.
- Escalabilidad y capacidad de manejar volúmenes crecientes de datos.
- Tiempo de recuperación después de la degradación del rendimiento.
Soporte: Los criterios de evaluación de soporte se refieren a la facilidad y eficacia del sistema para ser mantenido, administrado y adaptado a lo largo del tiempo. Algunos criterios comunes incluyen:
- Documentación y recursos de ayuda disponibles.
- Facilidad de instalación y configuración.
- Adaptabilidad a cambios en el entorno operativo.
- Facilidad de actualización y mantenimiento.
Instrumento de Evaluacion
Intrumento de evaluacion y metrica modelo Fuprs
__________________________________________________________________________________
Modelo Mc Call
Mc Call define varios factores de calidad como los primeros pasos hacia el desarrollo de metricas decalidad de software. Estos factores evaluar el software desde tres puntos de vista diferentes: Operacion de prductos, revision del producto y transicion del producto.
Criterios de evaluacion
1. Operaciones del producto | |
Corrección ¿Hace lo que se le pide? | El grado en que una aplicación satisface sus. especificaciones y consigue los objetivos encomendados |
Fiabilidad ¿Los hace de forma fiable todo el tiempo? | El grado que se puede esperar de una aplicación lleve a cabo las operaciones especificadas y con la precisión | requerida |
Eficiencia ¿Que recursos de hardware y software necesito? | La cantidad de recursos hardware y sofware que. necesita una aplicación para realizar las operaciones con | los tiempos de respuesta adecuados |
Integridad ¿Puedo controlar su uso? | El grado con que puede controlarse el acceso al Software |
Facilidad de uso ¿Es fácil y cómodo manejar el producto? | El esfuerzo requerido para aprender el manejo de una aplicación, trabajar con ella, introducir datos y conseguir resultados |
1. Revisión del producto | |
Facilidad de mantenimiento ¿Puedo localizar con facilidad los fallos? | El esfuerzo requerido para localizar y reparar errores |
Flexibilidad ¿Puedo añadir nuevas opciones? | El esfuerzo requerido para modificar una aplicación en funcionamiento. |
Facilidad de prueba ¿Puedo probar todas las opciones? | El esfuerzo requerido para probar una aplicación de forma que cumpla con lo especificado en los requisitos |
1. Transición del producto | |
Portabilidad ¿Podré usarlo en otra máquina? | El esfuerzo requerido para transferir la aplicación a atro hardware o sistema operativo. |
Reusabilidad ¿Podré usar parte del software en otra aplicación? | Grado en que partes de una aplicación pueden. |
Interoperabilidad Podrá comunicarse con otros sistemas informáticos? | El esfuerzo necesario para comunicarse con otras aplicaciones os sistemas informáticos |
Metrica o escala de valoracion
Facilidad de autoría | La facilidad con la que se puede comprobar el cumplimiento de los estándares |
Exactitud | La exactitud de los cálculos y de control |
Estandarización de comunicaciones | El grado de empleo de estándares de interfaces, protocolos y ancho de banda |
Complexión | El grado con el que se ha logrado la implementación total de una función |
Consistencia | El empleo de un diseño uniforme y de técnicas de documentación a lo largo del proyecto de desarrollo de software |
Estandarización de datos | El empleo de estructuras y tipos de datos a los lago del programa |
Tolerancia de error | El daño causado cuando un programa encuentra un error |
Eficiencia de ejecución | El redimiendo del funcionamiento de un programa |
Capacidad de expansión | El grado con el que se puede ampliar el diseño arquitectónico de datos o procedimental |
Generalidad | La amplitud de aplicación potencial de los componentes del programa |
Independencia del hardware | El grado con el que se desacopla el software del hardware donde se opera. |
Instrumentación | El grado con el que el programa vigila su propio funcionamiento e identifica los errores que ocurren |
Modularidad | La independencia funcional de los componentes del programa |
Operatividad | La facilidad de operación de un programa |
Seguridad | La disponibilidad de mecanismos que protegen el programa o datos |
Auto documentación | El grado con el que el código fuente proporciona documentación significativa |
Simplicidad | El grado de facilidad con el que se puede entender un programa |
Independencia del sistema software | El grado de independencia del programa respecto a las características del lenguaje de programación no estándar características del sistema operativo y otras restricciones. |
Trazabilidad | La capacidad de seguir una representación del diseño o un componente real del programa hasta los requisitos |
Formación | El grado en que ayuda el software a manejar el sistema a nuevos usuarios |
Metodologia
Este modelo es sistemático, a través de las siguientes fases valida la calidad del software: Determina los factores que definen la calidad del software.
- Identifica los criterios de calidad para cada factor.
- Define las métricas de los criterios en la que establece una función de normalización en la que ejerce una relación entre los factores asignados y las métricas de cada criterio.
- Evalúa las métricas.
- Correlaciona las métricas definidas para agruparlas en un catálogo de instrucciones para la aplicación de métricas que podrían ser implementados en otros desarrollos en la que se sigan dichas recomendaciones.
- Número de funciones implementadas correctamente.
- Tiempo promedio para completar una tarea.
- Tasa de errores del usuario.
- Tiempo medio entre fallos.
- Tiempo medio de recuperación después de una falla.
- Tiempo y esfuerzo requeridos para realizar cambios o correcciones.
- Tiempo medio de respuesta del sistema.
- Uso de recursos del sistema, como CPU, memoria y almacenamiento.
- Tiempo de inactividad del sistema.
- Tasa de éxito de las transacciones o procesos.
- Eficiencia en el uso de recursos.
- Tamaño de la base de datos.
- Velocidad de acceso a los datos.
- Índices de calidad de datos, como precisión, integridad y consistencia.
- Tasa de error en la entrada o salida de datos.
- Tiempo de recuperación de datos después de una falla.
- Cohesión y acoplamiento de componentes.
- Número de capas o niveles de la arquitectura.
- Complejidad del diseño, medida por el número de clases, métodos, etc.
- Número de dependencias entre componentes.
- Escalabilidad del sistema, medida por su capacidad para manejar volúmenes crecientes de datos o usuarios.
- Enfoque en evaluar la calidad del software desde la perspectiva de los usuarios finales y las características observables del producto.
- Considera aspectos como la funcionalidad, la confiabilidad, la usabilidad, el rendimiento y la eficiencia del software.
- Se utilizan métricas y técnicas para medir la satisfacción del usuario, la tasa de errores, el tiempo de respuesta del sistema y otros aspectos relacionados con la calidad del producto entregado.
- Considera aspectos como la eficiencia del proceso, la efectividad de las prácticas de gestión de proyectos, la capacitación del equipo y el cumplimiento de los estándares y procedimientos de desarrollo.
- Se pueden utilizar métricas como la productividad del equipo, el cumplimiento de plazos y presupuestos, y la satisfacción del cliente para evaluar la calidad del proceso.
- Se enfoca en evaluar la calidad interna del software, incluida su estructura, diseño, mantenibilidad y facilidad de modificación.
- Considera aspectos como la claridad del diseño, la cohesión y acoplamiento de los componentes, la reutilización de código y la modularidad.
- Se utilizan métricas como la complejidad del código, la facilidad para realizar cambios y la frecuencia de errores durante el mantenimiento para evaluar la calidad interna del software.
Perspectiva del Usuario:
Enfoca en evaluar cómo perciben y utilizan el software los usuarios finales.
Considera aspectos como la facilidad de uso, la eficiencia en el logro de tareas, la satisfacción del usuario y la accesibilidad.
Utiliza métodos como encuestas, pruebas de usabilidad, evaluaciones heurísticas y análisis de experiencia del usuario para recopilar información sobre la percepción de los usuarios.
Perspectiva de la Organización:
Evalúa cómo el software contribuye a los objetivos y necesidades de la organización.
Considera aspectos como la alineación con los objetivos de negocio, el valor agregado que proporciona el software, la rentabilidad y la facilidad de mantenimiento.
Utiliza métricas financieras, análisis de retorno de la inversión (ROI), evaluaciones de riesgos y otros métodos para evaluar el impacto del software en la organización.
Perspectiva Técnica:
Se centra en evaluar la calidad técnica y de ingeniería del software.
Considera aspectos como la eficiencia, la modularidad, la fiabilidad, la seguridad y la escalabilidad del software.
Utiliza métricas de calidad de código, análisis estático y dinámico, pruebas de rendimiento y otros métodos para evaluar la calidad técnica del software.
Enfoque Integral:
Integra las tres perspectivas (usuario, organización, técnica) para proporcionar una evaluación completa y equilibrada de la calidad del software.
Reconoce la interdependencia entre estos aspectos y la importancia de considerarlos en conjunto para obtener una evaluación precisa y significativa de la calidad del software.
Adaptabilidad:
Es adaptable y puede ser personalizado según las necesidades y características específicas de cada proyecto o contexto.
Puede ser utilizado en diferentes etapas del ciclo de vida del desarrollo de software, desde la planificación y diseño hasta la implementación, mantenimiento y evaluación continua.
1. Perspectiva del Usuario:
- Satisfacción del usuario: Medida mediante encuestas, entrevistas u otros métodos de retroalimentación para evaluar el grado de satisfacción de los usuarios con el software.
- Eficiencia en la realización de tareas: Métricas que miden el tiempo y los recursos necesarios para que los usuarios completen tareas específicas utilizando el software.
- Tasa de errores del usuario: Número de errores cometidos por los usuarios durante el uso del software, que podrían detectarse mediante pruebas de usabilidad o análisis de registros de actividad.
2. Perspectiva de la Organización:
- Valor agregado: Métricas que evalúan el valor comercial o estratégico que el software proporciona a la organización, como el aumento de ingresos, la reducción de costos o la mejora de la productividad.
- ROI (Retorno de la inversión): Métricas financieras que comparan los beneficios obtenidos de la inversión en desarrollo de software con los costos asociados, para determinar la rentabilidad del proyecto.
- Facilidad de mantenimiento: Métricas que evalúan la facilidad con la que el software puede mantenerse y adaptarse a medida que cambian los requisitos o condiciones del negocio.
3. Perspectiva Técnica:
- Complejidad del código: Métricas que evalúan la complejidad del código fuente, como la cantidad de líneas de código, la profundidad de anidamiento y la complejidad ciclomática.
- Cobertura de pruebas: Métricas que evalúan la cantidad y calidad de las pruebas realizadas sobre el software, como la cantidad de código cubierto por pruebas unitarias o la efectividad de las pruebas de regresión.
- Rendimiento del sistema: Métricas que evalúan el rendimiento del software, como el tiempo de respuesta, la utilización de recursos del sistema y la escalabilidad.



