GESTIÓN DE ENTRADA Y SALIDA

0

 


Dispositivos de entrada y salida: 

Los dispositivos de entrada y salida (E/S) son componentes del sistema informático que permiten la interacción entre el sistema y el mundo exterior. Los dispositivos de entrada se utilizan para enviar datos o señales al sistema, mientras que los dispositivos de salida reciben datos o señales del sistema y los presentan al usuario o a otros dispositivos.


mas información aquí:)

Sistema de entrada y salida: 

El sistema de entrada y salida es un subsistema del sistema operativo que se encarga de gestionar y controlar la comunicación entre la CPU y los dispositivos de entrada y salida. Proporciona una interfaz entre el software del sistema y los controladores de dispositivos, permitiendo la transferencia de datos y el control de los dispositivos.



Interacción de la CPU y E/S: Polling 

La interacción entre la CPU y los dispositivos de E/S puede llevarse a cabo utilizando diferentes métodos. Uno de ellos es el polling (sondeo), que consiste en que la CPU consulte periódicamente el estado de los dispositivos para determinar si tienen datos listos para ser transferidos.


Esquema de interrupciones: 

El esquema de interrupciones es una alternativa al polling que permite una interacción más eficiente entre la CPU y los dispositivos de E/S. En este esquema, los dispositivos de E/S pueden interrumpir el funcionamiento normal de la CPU para señalar que tienen datos disponibles o que requieren atención.


Acceso Directo a la Memoria (DMA):

El Acceso Directo a la Memoria (DMA, por sus siglas en inglés) es una técnica utilizada en sistemas informáticos para optimizar las transferencias de datos entre dispositivos de E/S y la memoria principal sin la intervención directa de la CPU. Permite que los dispositivos de E/S accedan a la memoria directamente, sin tener que pasar por la CPU en cada transferencia.

En un sistema con DMA, el controlador de DMA se encarga de coordinar la transferencia de datos entre los dispositivos de E/S y la memoria. La CPU configura el controlador de DMA con la ubicación de memoria y el tamaño de los datos a transferir, y luego puede continuar ejecutando otras tareas mientras el DMA se encarga de la transferencia.

El uso de DMA reduce la carga de trabajo de la CPU en las operaciones de E/S y mejora el rendimiento general del sistema al permitir que la CPU se dedique a realizar otras tareas mientras se están realizando las transferencias de datos.

Gestión de E/S por parte del S.O.:

La gestión de E/S por parte del sistema operativo (S.O.) es el conjunto de técnicas y algoritmos utilizados para administrar las operaciones de entrada y salida en un sistema informático.

El S.O. se encarga de coordinar las solicitudes de E/S de los procesos, asignar recursos de E/S, controlar el flujo de datos, manejar errores y garantizar una ejecución eficiente de las operaciones de E/S.

Para lograr una gestión eficiente de E/S, el S.O. utiliza diferentes estrategias, como el buffering de datos, la planificación de E/S, el uso de colas de espera y la priorización de solicitudes. Estas técnicas ayudan a optimizar el uso de los recursos de E/S y a garantizar que las operaciones se realicen de manera oportuna y sin conflictos.

Estructura física de un disco duro:


Un disco duro es un dispositivo de almacenamiento de datos no volátil que utiliza discos magnéticos para almacenar y recuperar información. Está compuesto por varias partes principales:

1. Platos: Son discos circulares fabricados con materiales magnéticos y recubiertos con una capa de material sensible a los campos magnéticos. Los platos giran a alta velocidad (generalmente entre 5,400 y 15,000 revoluciones por minuto) sobre un eje central.

2. Cabezales de lectura/escritura: Son pequeños dispositivos electromagnéticos que se encuentran en cada lado de cada plato. Los cabezales se mueven sobre la superficie de los platos para leer o escribir datos en ellos.

3. Brazo de actuator: Es el mecanismo que sostiene y mueve los cabezales de lectura/escritura. El brazo de actuator se mueve rápidamente para posicionar los cabezales en la posición correcta sobre los platos.

4. Pistas y sectores: Los platos están divididos en pistas concéntricas, que son círculos imaginarios en la superficie de los platos. Cada pista está dividida en sectores, que son unidades más pequeñas donde se almacenan los datos.


Planificación de operaciones de disco:


La planificación de operaciones de disco se refiere a las técnicas utilizadas por el sistema operativo para optimizar la secuencia de acceso a los datos en el disco duro. El objetivo es minimizar el tiempo de búsqueda y maximizar la eficiencia de las operaciones de lectura y escritura.

Existen diferentes algoritmos de planificación de operaciones de disco, entre ellos:

1. First-Come, First-Served (FCFS): Este algoritmo atiende las solicitudes en el orden en que llegan. No tiene en cuenta la ubicación física de los datos en el disco, lo que puede resultar en un alto tiempo de búsqueda si las solicitudes están dispersas.

2. Shortest Seek Time First (SSTF): Este algoritmo selecciona la solicitud que requiere el menor tiempo de búsqueda desde la posición actual del cabezal. Esto reduce el tiempo de búsqueda, pero puede dar lugar a una inanición de solicitudes alejadas del cabezal.

3. SCAN: El cabezal se mueve en una dirección desde un extremo del disco hacia el otro, atendiendo las solicitudes a medida que se encuentra con ellas. Una vez que llega al extremo opuesto, invierte su dirección. Este algoritmo garantiza un tiempo de espera acotado para todas las solicitudes.

4. C-SCAN: Similar al algoritmo SCAN, pero el cabezal vuelve rápidamente al extremo opuesto después de llegar a él, sin atender solicitudes en el camino de regreso. Esto asegura un tiempo de espera uniforme para todas las solicitudes.



Tal vez te interesen estas entradas

No hay comentarios