본문 바로가기

CS 전공지식

23.12.29 메모리 관리

1. 가상 메모리

    - 메모리 관리 기법의 하나로 컴퓨터가 실제로 이용 가능한 메모리 자원을 추상화하여 이를 사용하는 사용자들에게

      매우 큰 메모리로 보이게 만드는 것

    - 가상적으로 주어진 주소를 가상 주소(logical address) 라고 하며, 실제 메모리사엥 있는 주소를

      실제 주소(physical address) 라고 한다.

    - 가상 주소는 메모리관리장치(MMU)에 의해 실제 주소로 변황되며, 이 덕분에 사용자는 실제 주소를 의식할

      필요 없이 프로그램을 구축할 수 있다

    - 가상 주소와 실제 주소가 매핑되어 있고 프로세스의 주소 정보가 들어 있는 페이지 테이블로 관리된다 이때

      속도 향상을 위해 TLB 를 사용

       * TLB

         - 메모리와 CPU 사이에 있는 주소 변환을 위한 캐시

         - 페이지 테이블에 있는 리스트를 보관하며 CPU 가 페이지 테이블까지 가지 않도록 해 속도를

           향상시킬 수 있는 캐시 계층

  1) 스와핑

       - 만약 가상 메모리에는 존재하지만 실제 메모리인 RAM 에는 현재 없는 데이터나 코드에 접근할 경우

         페이지 폴트가 발생함

       - 위의 경우 메모리에서 당장 사용하지 않는 영역을 하드디스크로 옮기고 하드디스크의 일부분을

         마치 메모리처럼 불러와 쓰는 것

       - 이를 통해 마치 페이지 폴트가 일어나지 않은 것처럼 만듬

 

  2) 페이지 폴트 (page fault)

       - 프로세스의 주소공간에는 존재하지만 지금 이 컴퓨터의 RAM 에는 없는 데이터에 접근했을 때 발생

       - 페이지 폴트와 그로 인한 스와핑은 아래와 같은 과정으로 이루어 진다

     (1) CPU 는 물리 메모리를 확인하여 해당 페이지가 없으면 트랩을 발생해서 운영체제에 알림

     (2) 운영체제는 CPU 의 동작을 잠시 멈춤

     (3) 운영체제는 페이지 테이블을 확인하여 가상 메모리에 페이지가 존재하는지 확인하고, 없으면 프로세스를

          중단하고 현재 물리 메모리에 비어 있는 프레임이 있는지 찾는다. 물리 메모리에도 없다면 스와핑 발동

     (4) 비어 있는 프레임에 해당 페이지를 로드하고, 페이지 테이블의 최신화

     (5) 중단되었던 CPU 를 재시작

     * 페이지 : 가상 메모리를 사용하는 최소 크기 단위

     * 프레임 : 실제 메모리를 사용하는 최소 크기 단위

 

2. 스레싱 (thrashing)    

    - 메모리의 페이지 폴트율이 높은 것을 의미하며, 이는 컴퓨터의 심각한 성능 저하를 초래

    - 메모리에 너무 많은 프로세스가 동시에 올라가게 되면 스와핑이 많이 일어나서 발생하는 것

    - 페이지 폴트가 일어나면 CPU 의 이용율이 낮아진다 그렇게 되면 운영체제는 CPU가 한가한가?

      하고 생각해 가용성을 더 높이기 위해 더 많은 프로세스를 메모리에 올리게 되는데 이와 같은

      악순환이 반복되며 스레싱이 일어남

    - 해결하기 위한 방법으로는 메모리를 늘리거나, HDD 를 사용한다면 HDD 를 SSD 로 바꾸는 방법이 있다

    - 이외에 운영체제에서 이를 해결할 수 있는 방법은 작업세트와 PFF 가 있다.

  1) 작업 세트 (working set)

       - 프로세스의 과거 사용 이력인 지역성(locality)을 통해 결정된 페이지의 집합을 만들어서 메모리에 로드하는 것

       - 미리 메모리에 로드하면 탐색에 드는 비용을 줄일 수 있고 스와핑 또한 줄일 수 있다

 

  2) PFF (Page Fault Frequency)

       - 페이지 폴트 빈도를 조절하는 방법으로 상한선과 하한선을 만드는 방법

       - 상한선에 도달하면 프로임을 늘리고 하한선에 도달한다면 프레임을 줄임

 

3. 메모리 할당

    - 메모리에 프로그램을 할당할 때는 시작 메모리 위치, 메모리의 할당 크기를 기반으로 하당하는데,

      연속할당과 불연속 하당으로 나뉨

 

  1) 연속 할당

       - 메모리에 연속적으로 공간을 할당하는 것

       - 프로세스 A, 프로세스 B , 프로세스 C 가 순차적으로 공간에 할당하는 것을 볼 수 있다

       - 이는 고정 분할 방식과, 가변 분할 방식이 있다

     (1) 고정 분할 방식 (fixed partition allocation)

           - 메모리를 미리 나누어 관리하는 방식

           - 메모리가 미리 나뉘어 있기 때문에 융통선이 없고 내부 단편화가 발생함

     (2) 가변 분할 방식 (variable partition allocation)

           - 매 시점 프로그램의 크기에 맞게 동적으로 메모리를 나눠 사용

           - 내부 단편화는 발생하지 않고 외부 단편화는 발생할 수 있다

           - 최초적합(first fit), 최적적합(best fit), 최악적합(worst fit)이 있다

              * 내부 단편화 (internal fragmentation) 

                 - 메모리를 나눈 크기보다 프로그램이 작아서 들어가지 못하는 공간이 많이 발생하는 현상

              * 외부 단편화 (external fragmentation)

                 - 메모리를 나눈 크기보다 프로그램이 커서 들어가지 못하는 공간이 많이 발생하는 현상

                 - 예) 100MB 를 55MB, 45MB 로 나눴지만 프로그램의 크기는 70MB 이상일 때 들어가지 못하는 것

               * 홀

                 - 할당할 수 있는 비어 있는 메모리 공간

 이 름  설 명
 최초 적합  위쪽이나 아래쪽부터 시작해서 홀을 찾으면 바로 할당
 최적 적합  프로세스의 크기 이상인 공간 중 가장 작은 홀부터 할당
 최악 적합  프로세스의 크기와 가장 많이 차이가 나는 홀에 할당

 

  2) 불연속 할당

       - 메모리를 연속적으로 할당하지 않은 불연속 할당은 현대 운영체제가 쓰는 방법

     (1) 페이징(paging)

           - 동일한 크기의 페이지(보통 4KB) 단위로 나누어 메모리의 서로 다른 위치에 프로세스 할당

           - 홀의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡해짐

     (2) 세그맨테이션 (segmentation)

           - 페이지 단위가 아닌 의미 단위인 세그먼트(segment)로 나누는 방식

           - 프로세스를 이루는 메모리는 코드 영역, 데이터 영역, 스택 영역, 힙 영역으로 이루어지는데,

             코드와 데이터로 나누거나 코드 내의 작은 함수를 세그먼트로 놓고 나눌 수 있다

           - 이는 공유와 보안 측면에서 장점을 가지지만 홀 크기가 균일하지 않은 단점이 있다

     (3) 페이지드 세그멘테이션 (paged segmentation)

           - 프로그램을 의미 단위인 세그먼트로 나눠 공유나 보안 측변에 강점을 두고 임의의 길이가 아닌 동일한

             크기의 페이지 단위로 나누는 것

 

4. 페이지 교체 알고리즘

    - 메모리는 한정되어 있기 때문에 스와핑이 많이 일어남

    - 스와핑은 많이 일어나지 않도록 설계되어야 하며 이는 페이지 교체 알고리즘을 기반으로 스와핑이 일어난다

 

  1) 오프라인 알고리즘 (offline algorithm)

       - 먼 미리에 참조되는 페이지와 현재 할당하는 페이지를 바꾸는 알고리즘 이며 가장 좋은 방법이다

       - 하지만 미래에 사용되는 프로세스를 우리가 알 수 없다 즉, 사용할수 없는 알고리즘이지만 가장 좋은

         알고리즘이기 때문에 다른 알고리즘과의 성능 비교에 대한 상한기준(upper_bound)을 제공 함

     (1) FIFO (First In First Out)

           - 가장 먼저 온 페이지를 교체 영역에 가장 놓는 방법

     (2) LRU (Least Recentle Used)

           - 참조가 가장 오래된 페이지를 바꾼다

           - 오래된 것을 파악하기 위해 각 페이지마다 계수기, 스택을 두어야 하는 문제점이 있다

           - 아래 그림에서 보듯이 5번째에 5번 페이지가 들어 왔을 때 가장 오래된 1번 페이지와 스왑 하는 것을 볼 수 있다

           - LRU 구현을 프로그래밍으로 할 때는 보통 두개의 자료구조로 구현한다 바로 해시 테이블과 이중 연결리스트이다

           - 해시 테이블은 이중 연결 리스트에서 빠르게 찾을 수 있도록 쓰고, 이중 연결 리스트는 한정된 메모리를 나타냄

 

           A) NUR (Not Used Recently)             

                - LRU 에서 발전한 알고리즘

                - 일명 clock 알고리즘이라고 하며 0 과 1 을 가진 비트를 둔다

                - 1은 최근에 참조 되었고 0은 참조되지 않음을 의미

                - 시계 방향으로 돌면서 0을 찾고 0을 찾은 순간 해당 프로세스를 교체하고 해당 부분을 1로 바꾸는 알고리즘         

     (3) LFU (Least Frequently Used)

           - 가장 참조 횟수가 적은 페이즈를 교체

           - 많이 사용하지 않은 것을 교체