0% encontró este documento útil (0 votos)
42 vistas13 páginas

TrabajoGrupal ProcesosyThreads

El documento habla sobre procesos y threads. Explica que un proceso es un programa en ejecución con sus recursos asociados, y que la multiprogramación permite ejecutar múltiples procesos simultáneamente aunque solo uno use la CPU en un momento. También describe los estados por los que pasa un proceso y las causas por las que puede terminar, como la terminación normal o por error.

Cargado por

Soffy Gonzalez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
42 vistas13 páginas

TrabajoGrupal ProcesosyThreads

El documento habla sobre procesos y threads. Explica que un proceso es un programa en ejecución con sus recursos asociados, y que la multiprogramación permite ejecutar múltiples procesos simultáneamente aunque solo uno use la CPU en un momento. También describe los estados por los que pasa un proceso y las causas por las que puede terminar, como la terminación normal o por error.

Cargado por

Soffy Gonzalez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 13

Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

PROCESOS Y THREADS

Actividades

1) ¿Qué se entiende por procesos y en qué consiste la multiprogramación?

Un proceso es justamente un programa en ejecución, incluyendo los valores actuales


del contador de programa, registros y variables. Conceptualmente cada proceso tiene su
propia CPU virtual. En realidad, por supuesto, la CPU real conmuta sucesivamente de un
proceso a otro, pero para entender el sistema, es mucho más fácil pensar sobre una colección
de procesos ejecutándose en (pseudo) paralelo, que intentar seguir la pista de cómo la CPU
conmuta de un programa a otro. Esta rápida conmutación de un proceso a otro en algún orden
se denomina multiprogramación.

Un proceso se refiere a un programa en ejecución, junto con sus recursos asociados,


como el espacio de memoria, los archivos abiertos, el estado del procesador y otros recursos
del sistema. Cada proceso se considera una entidad independiente que puede ser gestionada y
programada de manera independiente por el sistema operativo.

La multiprogramación es una técnica utilizada en sistemas operativos que permite


ejecutar múltiples procesos simultáneamente, aunque el procesador solo puede ejecutar un
proceso en un momento dado. La multiprogramación aprovecha al máximo la capacidad del
procesador al alternar la ejecución de múltiples procesos de manera rápida y eficiente, lo que
da la ilusión de que múltiples procesos se ejecutan simultáneamente.

2) Explique con su palabra la figura 2-1.

__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

En la Figura 2-1(a) vemos un ordenador multiprogramado con cuatro programas en


memoria. En la Figura 2-1(b) vemos cuatro procesos cada uno con su propio flujo de control
(es decir su propio contador de programa lógico), y cada uno ejecutándose
independientemente de los otros. Por supuesto que existe un único contador de programa
físico, por lo que cada vez que un proceso retoma su ejecución, su contador de programa
lógico debe cargarse en el contador de programa real. Cuando el proceso agota el intervalo de
tiempo que se le ha concedido, se salva su contador de programa físico en su contador de
programa lógico en memoria. En la Figura 2-1(c) vemos que desde la perspectiva de un
intervalo de tiempo suficientemente largo, todos los procesos han progresado, pero que en
cualquier instante dado solamente un único proceso está realmente ejecutándose.

3) ¿Qué entiende por la analogía que hace sobre el científico informático?

La diferencia entre un proceso y un programa es sutil, pero crucial. Para explicar esto
puede servirnos de ayuda una analogía.

Consideremos un científico informático con aptitudes culinarias que está preparando


una tarta de cumpleaños para su hija. Para ello dispone de una receta de la tarta de
cumpleaños y una cocina bien surtida con todos los ingredientes: harina, huevos, azúcar,
extracto de vainilla, etc. En esta analogía, la receta representa el programa (es decir un
algoritmo expresado mediante alguna notación apropiada), el científico informático
representa el procesador (CPU), y los ingredientes de la tarta representan los datos de entrada.
El proceso es la actividad consistente en nuestro pastelero leyendo la receta, añadiendo los
ingredientes y preparando la tarta.

Imaginemos ahora que el hijo del científico informático entra corriendo y gritando,
diciendo que le ha picado una abeja. El científico informático apunta por donde iba en la
receta (salva el estado del proceso actual), coge un libro de primeros auxilios y comienza a
seguir las instrucciones para la cura. Aquí vemos cómo el procesador conmuta de un proceso
(preparar la tarta) a un proceso de mayor prioridad (administrar cuidados médicos), cada uno
de los cuales sigue un programa diferente (la receta frente al libro de primeros auxilios). Una
vez que termina de curar la picadura de la abeja, el científico vuelve a su tarta, continuando
en el punto donde la dejó.

4) ¿Cuáles son los principales sucesos que crean un proceso?

__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

Los cuatro principales sucesos que provocan la creación de nuevos procesos son:

La inicialización del sistema.

La ejecución por parte de un proceso (en ejecución) de una llamada al sistema


de creación de un nuevo proceso.

La petición por parte del usuario de la creación de un nuevo proceso.

El inicio de un trabajo en batch.

5) Explique brevemente cada uno de los sucesos que crea un proceso

La inicialización del sistema: Al encender un sistema informático, se inicia el


kernel del sistema operativo, que es responsable de la gestión de recursos y procesos. Durante
este proceso de arranque, se crean los procesos necesarios para inicializar los servicios y
componentes fundamentales del sistema operativo, preparándolo para su funcionamiento.

La ejecución por parte de un proceso (en ejecución) de una llamada al sistema


de creación de un nuevo proceso: En algunos casos, un proceso en ejecución puede requerir
la ejecución de otro programa o servicio para completar una tarea. Este proceso puede
realizar una llamada al sistema para crear un nuevo proceso que se ejecute simultáneamente y
maneje la tarea necesaria, permitiendo así una multitarea eficiente.

La petición por parte del usuario de la creación de un nuevo proceso: Los


usuarios pueden solicitar la ejecución de programas o servicios específicos que requieran la
creación de nuevos procesos. Esto puede ocurrir, por ejemplo, cuando un usuario inicia una
aplicación o un programa en un entorno interactivo.

El inicio de un trabajo en batch: Los usuarios pueden solicitar la ejecución de


programas o servicios específicos que requieran la creación de nuevos procesos. Esto puede
ocurrir, por ejemplo, cuando un usuario inicia una aplicación o un programa en un entorno
interactivo.

6) ¿Cuáles son las causas por la cual termina un proceso?

Se mencionan algunas de las causas por las cuales puede terminar un proceso. Estas
son:
__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

Terminación normal.

Terminación por error.

Terminación por seña.

Terminación por interrupción.

Terminación por falta de recursos.

Terminación por solicitud del usuario.

7) Hable brevemente de las causas que termina un proceso

Terminación normal: El proceso ha completado su tarea y termina de manera


normal.

Terminación por error: El proceso encuentra un error y termina de manera


anormal.

Terminación por señal: El proceso recibe una señal de otro proceso o del
sistema operativo y termina en consecuencia.

Terminación por interrupción: El proceso es interrumpido por el sistema


operativo debido a una prioridad más alta de otro proceso.

Terminación por falta de recursos: El proceso no puede continuar debido a la


falta de recursos, como memoria o espacio en disco.

Terminación por solicitud del usuario: El usuario solicita la terminación del


proceso.

8) Hable de los estados de los procesos

Los diferentes estados por los que puede pasar un proceso en un sistema operativo son:

Nuevo: El proceso ha sido creado pero aún no se ha iniciado.

Listo: El proceso está listo para ejecutarse pero aún no se le ha asignado tiempo
de CPU.

__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

En ejecución: El proceso está actualmente en ejecución en la CPU.

Bloqueado: El proceso está esperando que se complete una operación de


entrada/salida (E/S) o que se libere un recurso.

Terminado: El proceso ha finalizado su tarea y ha sido eliminado del sistema.

Además, se conoce el estado de "suspendido", que se puede aplicar a cualquier estado


excepto el estado "nuevo". Un proceso suspendido se detiene temporalmente y se coloca en
un estado de espera hasta que se reanuda su ejecución.

Estos son los diferentes estados por los que puede pasar un proceso en un sistema
operativo, desde su creación hasta su finalización. La comprensión de estos estados es
importante para la gestión de procesos y la asignación de prioridades en un sistema operativo.

9) Explique cómo se realiza la implementación de proceso

A continuación, se explica brevemente cada uno de los pasos involucrados en la


implementación de procesos:

Creación del proceso: El sistema operativo crea un nuevo proceso cuando se


inicia un programa o una aplicación. El proceso se crea con un identificador único y se le
asigna un espacio de memoria.

Asignación de recursos: El sistema operativo asigna los recursos necesarios al


proceso, como memoria, tiempo de CPU y dispositivos de E/S.

Inicio del proceso: El proceso se inicia y comienza a ejecutarse en la CPU.

Cambio de estado: El proceso puede cambiar de estado a medida que avanza su


ejecución. Por ejemplo, puede pasar del estado "listo" al estado "en ejecución" cuando se le
asigna tiempo de CPU.

Interrupciones: Durante la ejecución del proceso, pueden ocurrir interrupciones,


como interrupciones de hardware o señales de otros procesos. El sistema operativo maneja
estas interrupciones y puede cambiar el estado del proceso en consecuencia.

__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

Finalización del proceso: Cuando el proceso ha completado su tarea, se finaliza


y se libera cualquier recurso que haya utilizado.

Eliminación del proceso: Una vez que el proceso ha finalizado, se elimina del
sistema operativo y se libera su espacio de memoria.

10) ¿Qué es un Threads?

Un thread, también conocido como hilo, es una unidad básica de procesamiento que
puede ejecutarse de manera independiente dentro de un proceso. Un proceso puede tener
varios threads, cada uno de los cuales puede ejecutar diferentes tareas simultáneamente.

A diferencia de los procesos, los threads comparten el mismo espacio de memoria y


recursos del proceso padre. Esto significa que los threads pueden acceder a las mismas
variables y recursos compartidos, lo que puede mejorar la eficiencia y el rendimiento de una
aplicación.

Los threads también pueden ser planificados y administrados por el sistema operativo,
al igual que los procesos. El sistema operativo puede asignar tiempo de CPU a cada thread y
cambiar su estado según sea necesario.

11) ¿Qué añade los threads a los procesos?

Los threads añaden una mayor concurrencia y paralelismo a los procesos. La figura 2.6
muestra cómo los threads pueden mejorar la eficiencia de una aplicación al permitir que
varias tareas se ejecuten simultáneamente dentro de un proceso.

En un proceso sin threads, todas las tareas se ejecutan secuencialmente, lo que puede
llevar a cuellos de botella y tiempos de espera innecesarios. Con los threads, cada tarea se
puede ejecutar de manera independiente y simultánea, lo que puede mejorar
significativamente el rendimiento de la aplicación.

Además, los threads también pueden mejorar la capacidad de respuesta de una


aplicación al permitir que una tarea se ejecute en segundo plano mientras otra tarea se ejecuta
en primer plano. Esto puede ser útil en aplicaciones que requieren una interacción constante
con el usuario, como aplicaciones de interfaz gráfica de usuario (GUI).

12) Los threads de un proceso ¿son independiente?


__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

Los threads de un proceso pueden ejecutarse de manera independiente, pero comparten


el mismo espacio de memoria y recursos del proceso padre.

Esto significa que los threads pueden acceder a las mismas variables y recursos
compartidos, lo que puede mejorar la eficiencia y el rendimiento de una aplicación. Sin
embargo, también significa que los threads pueden interferir entre sí si no se gestionan
adecuadamente.
Por ejemplo, si dos threads intentan acceder a la misma variable al mismo tiempo, puede
producirse una condición de carrera o un error de sincronización.

Por lo tanto, es importante que los threads se gestionen adecuadamente y se sincronicen


cuando sea necesario para evitar problemas de concurrencia. Los sistemas operativos
proporcionan herramientas y mecanismos para la sincronización y la exclusión mutua entre
threads, como semáforos, mutex y variables de condición.

13) ¿Qué entiendes por la figura 2.8?

Se muestra la figura 2.8, que ilustra cómo los threads de un proceso comparten el
mismo espacio de direcciones, pero tienen su propia pila. Cada thread tiene su propio
conjunto de registros de CPU y su propia pila de llamadas, que se utiliza para almacenar
información sobre las llamadas a funciones y las variables locales.

La figura 2.8 muestra un proceso con tres threads, cada uno con su propia pila. Los
threads comparten el mismo espacio de direcciones, lo que significa que pueden acceder a las
mismas variables y recursos compartidos. Sin embargo, cada thread tiene su propia pila, lo
que significa que pueden ejecutarse de manera independiente y mantener su propio estado de
ejecución.

La gestión adecuada de las pilas de los threads es importante para evitar problemas de
desbordamiento de pila y para garantizar que cada thread tenga suficiente espacio para
almacenar su información de ejecución. Los sistemas operativos proporcionan herramientas y
mecanismos para gestionar las pilas de los threads, como la asignación dinámica de memoria
y la protección de la memoria.

14) ¿La utilización de los threads es útil?

__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

Los threads permiten que un proceso tenga múltiples flujos de ejecución que pueden
ejecutarse de manera independiente y concurrente. Esto puede mejorar el rendimiento y la
eficiencia de una aplicación al permitir que se realicen múltiples tareas al mismo tiempo.

Sin embargo, también es importante tener en cuenta que la utilización de threads puede
introducir problemas de concurrencia y sincronización. Si los threads acceden a los mismos
recursos compartidos sin la debida sincronización, pueden producirse errores y problemas de
rendimiento.

Por lo tanto, la utilización de threads puede ser útil en algunas aplicaciones, pero es
importante gestionarlos adecuadamente y sincronizarlos cuando sea necesario para evitar
problemas de concurrencia. Los sistemas operativos proporcionan herramientas y
mecanismos para la sincronización y la exclusión mutua entre threads, como semáforos,
mutex y variables de condición.

15) Hable sobre la figura 2.9.

En la figura 2.9 se ilustra un ejemplo de planificación de procesos con diferentes


prioridades. En este ejemplo, hay tres procesos: A, B y C, cada uno con una prioridad
diferente. El proceso A tiene la prioridad más alta, seguido del proceso B y luego del proceso
C.
La figura muestra cómo se planifican los procesos en función de sus prioridades. En este
ejemplo, el proceso A se ejecuta primero, seguido del proceso B y luego del proceso C.
Cuando el proceso A se bloquea o termina, el proceso B se ejecuta a continuación. Si el
proceso B se bloquea o termina, el proceso C se ejecuta a continuación.

La asignación de prioridades es importante para garantizar que los procesos críticos se


ejecuten de manera oportuna y eficiente. Los sistemas operativos utilizan diferentes
algoritmos de planificación para asignar prioridades a los procesos, como el algoritmo de
planificación de prioridad fija o el algoritmo de planificación de prioridad dinámica.

16) ¿Qué se entiende por condición de carrera de los procesos?

Si los procesos no están sincronizados adecuadamente, pueden producirse resultados


impredecibles o incorrectos.

__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

Por ejemplo, supongamos que dos procesos, A y B, comparten una variable X. Si


ambos procesos intentan modificar el valor de X al mismo tiempo, puede producirse una
condición de carrera. Si el proceso A lee el valor actual de X, lo incrementa y luego es
interrumpido antes de que pueda escribir el nuevo valor de X, el proceso B puede leer el valor
antiguo de X, incrementarlo y escribir el nuevo valor. Cuando el proceso A se reanuda,
escribirá el valor antiguo de X, sobrescribiendo el valor que escribió el proceso B.

Las condiciones de carrera pueden ser difíciles de detectar y solucionar, ya que


dependen de la sincronización y el orden de ejecución de los procesos. Los sistemas
operativos proporcionan herramientas y mecanismos para la sincronización y la exclusión
mutua entre procesos, como semáforos, mutex y variables de condición, para evitar
condiciones de carrera y garantizar la coherencia de los datos compartidos.

17) ¿Cómo se puede evitar la condición de carrera?

Los sistemas operativos proporcionan herramientas y mecanismos para la


sincronización y la exclusión mutua, como semáforos, mutex y variables de condición.

Por ejemplo, un semáforo puede utilizarse para garantizar que solo un proceso acceda a
un recurso compartido a la vez. Cuando un proceso quiere acceder al recurso, debe adquirir el
semáforo. Si el semáforo está disponible, el proceso lo adquiere y accede al recurso. Si el
semáforo no está disponible, el proceso se bloquea hasta que el semáforo esté disponible.

Un mutex es similar a un semáforo, pero solo puede ser adquirido por un proceso a la
vez. Cuando un proceso adquiere un mutex, ningún otro proceso puede adquirirlo hasta que el
primer proceso lo libere.

Las variables de condición pueden utilizarse para permitir que los procesos esperen a
que se cumpla una determinada condición antes de continuar. Por ejemplo, un proceso puede
esperar a que una variable de condición sea verdadera antes de continuar.

18) ¿Cuáles son las 4 condiciones que deben cumplirse para una solución
satisfactoria a la condición de carrera?

Estas condiciones son:

Exclusión mutua: Solo un proceso puede acceder al recurso compartido a la vez.

__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

Espera limitada: Si un proceso está esperando para acceder al recurso


compartido, no puede bloquear a otros procesos indefinidamente.

No prelación: Los procesos no pueden ser favorecidos o perjudicados en


función de su prioridad o antigüedad.

Espera circular: No debe haber un ciclo de procesos en espera de recursos que


solo pueden ser liberados por otros procesos en espera.

Estas condiciones son importantes para garantizar que los procesos puedan acceder a
los recursos compartidos de manera segura y eficiente. Los sistemas operativos proporcionan
herramientas y mecanismos para la sincronización y la exclusión mutua entre procesos, como
semáforos, mutex y variables de condición, para garantizar que se cumplan estas condiciones
y evitar condiciones de carrera.

19) ¿A qué se denomina Planificador?

El planificador es el componente del sistema operativo encargado de decidir qué


proceso se ejecutará a continuación en la CPU. El planificador es responsable de asignar los
recursos del sistema, como la CPU y la memoria, a los procesos de manera eficiente y justa.

El planificador utiliza algoritmos de planificación para tomar decisiones sobre qué


proceso se ejecutará a continuación. Los algoritmos de planificación pueden ser estáticos o
dinámicos, y pueden basarse en factores como la prioridad del proceso, el tiempo de espera,
el tiempo de ejecución y otros factores.

El planificador es una parte crítica del sistema operativo, ya que afecta directamente al
rendimiento y la capacidad de respuesta del sistema. Un buen planificador debe ser capaz de
asignar los recursos del sistema de manera eficiente y justa, minimizando el tiempo de espera
y maximizando el rendimiento del sistema.

20) ¿Por qué surgen los planificadores?

Los planificadores surgen debido a la necesidad de asignar los recursos del sistema,
como la CPU y la memoria, a los procesos de manera eficiente y justa. Cuando hay varios
procesos compitiendo por los mismos recursos, es necesario un mecanismo para decidir qué
proceso se ejecutará a continuación y cuánto tiempo se le asignará.

__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

Los planificadores son responsables de tomar estas decisiones y asignar los recursos del
sistema de manera eficiente y justa. Sin un planificador, los procesos podrían competir por
los recursos del sistema de manera caótica, lo que podría llevar a una utilización ineficiente
de los recursos y a un rendimiento deficiente del sistema.

21) ¿En qué momento se debe planificar?

La planificación puede ocurrir en varios momentos diferentes, dependiendo del tipo de


sistema operativo y del algoritmo de planificación utilizado. En general, la planificación
puede ocurrir en los siguientes momentos:

Planificación a largo plazo: Este tipo de planificación se refiere a la decisión de


cuántos procesos se deben mantener en la cola de procesos listos para ejecutarse. La
planificación a largo plazo se utiliza para garantizar que el sistema no se sobrecargue con
demasiados procesos y que haya suficiente memoria disponible para cada proceso.

Planificación a corto plazo: Este tipo de planificación se refiere a la decisión de


qué proceso se ejecutará a continuación en la CPU. La planificación a corto plazo se utiliza
para garantizar que los procesos se ejecuten de manera eficiente y justa, y que se minimice el
tiempo de espera.

Planificación de entrada/salida: Este tipo de planificación se refiere a la decisión


de qué proceso se moverá desde la cola de procesos listos a la cola de procesos bloqueados
debido a una operación de entrada/salida. La planificación de entrada/salida se utiliza para
garantizar que los procesos no se bloqueen indefinidamente debido a operaciones de
entrada/salida.

22) ¿Cuáles son las categorías de los algoritmos de planificación?

Los algoritmos de planificación se pueden clasificar en varias categorías, que incluyen:

Planificación no apropiativa.

Planificación apropiativa.

Planificación basada en prioridades.

Planificación basada en rondas.


__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

Planificación basada en colas multinivel.

23) ¿Cuáles son los objetivos de los algoritmos de planificación?

Los objetivos de los algoritmos de planificación son maximizar la utilización de la


CPU, minimizar el tiempo de respuesta y minimizar el tiempo de espera.

La figura 2.38 muestra un ejemplo de cómo diferentes algoritmos de planificación


pueden afectar estos objetivos.

Por ejemplo, el algoritmo FCFS (primero en llegar, primero en ser atendido) maximiza
la utilización de la CPU, pero puede resultar en un tiempo de respuesta y un tiempo de espera
muy largos para los procesos que llegan más tarde. Por otro lado, el algoritmo SJF (el trabajo
más corto primero) minimiza el tiempo de espera y el tiempo de respuesta, pero puede
resultar en una utilización de la CPU baja si llegan muchos procesos largos.

24) Hable de los diferentes algoritmos de planificación agrupado según su


categoría.

Existen varios algoritmos de planificación de procesos en sistemas operativos, que se


pueden agrupar en diferentes categorías según su enfoque y características. A continuación,
se describen brevemente algunas de estas categorías y los algoritmos que pertenecen a ellas:

Planificación no apropiativa: en esta categoría, los procesos no se interrumpen


hasta que terminan o se bloquean. Los algoritmos de esta categoría incluyen FCFS (primero
en llegar, primero en ser atendido) y SJF (el trabajo más corto primero).

Planificación apropiativa: en esta categoría, los procesos pueden ser


interrumpidos y reanudados más tarde. Los algoritmos de esta categoría incluyen Round
Robin (cada proceso se ejecuta durante un tiempo fijo y luego se interrumpe para dar paso al
siguiente proceso), SRTF (el trabajo más corto primero con planificación apropiativa) y
planificación por prioridades (los procesos se ejecutan en orden de prioridad).

Planificación basada en colas: en esta categoría, los procesos se asignan a


diferentes colas según su prioridad o características, y se planifican en función de su cola.
Los algoritmos de esta categoría incluyen la planificación por lotería (los procesos reciben un
número de lotería y se sortean para determinar cuál se ejecuta a continuación) y la

__________________________________________________________________________________

Grupo V
Informàtica VI-Trabajo Grupal

__________________________________________________________________________________

planificación por colas multinivel (los procesos se asignan a diferentes colas según su
prioridad y se planifican en función de su cola).

Planificación basada en eventos: en esta categoría, los procesos se planifican en


función de eventos específicos, como la llegada de una interrupción o la finalización de una
operación de E/S. Los algoritmos de esta categoría incluyen la planificación basada en
interrupciones y la planificación basada en E/S.

Cada categoría de algoritmos de planificación tiene sus propias ventajas y desventajas,


y es importante seleccionar el algoritmo adecuado para el sistema y las necesidades
específicas de los usuarios.

__________________________________________________________________________________

Grupo V

También podría gustarte