운영체제
운영체제: 사용자가 컴퓨터를 쉽게 다룰 수 있게 돕는 인터페이스
펌웨어: 운영체제와 유사하지만 소프트웨어를 추가로 설치할 수 없는 것
1. 운영체제와 컴퓨터
1.1 운영체제의 역할과 구조
운영체제의 역할
- CPU 스케줄링과 프로세스 관리
- 메모리 관리
- 디스크 파일 관리
- I/O 디바이스 관리
운영체제의 구조
* 커널: 운영체제의 핵심 부분, 시스템콜 인터페이스를 제공하며 보안, 메모리, 프로세스, 파일 시스템, I/O 디바이스, I/O 요청 관리 등 운영체제의 중추적인 역할을 함
* 드라이버: 하드웨어를 제어하기 위한 소프트웨어
* CUI: 그래픽이 아닌 명령어로 처리하는 인터페이스
시스템 콜
- 운영체제가 커널에 접근하기 위한 인터페이스
- 유저 프로그램이 운영체제의 서비스를 받기 위해 커널 함수를 호출함
- 유저 프로그램이 I/O 요청으로 트랩을 발동하면 올바른 I/O 요청인지 확인한 후 유저 모드가 시스템 콜을 통해 커널 모드로 변환되어 실행됨
- 유저 프로그램이 컴퓨터 자원에 직접 접근하는 것을 막을 수 있고 프로그램을 다른 프로그램으로부터 보호할 수 있음
modebit
- 1 or 0 값을 가지는 플래그 변수
- 시스템 콜이 작동될 때 modebit을 참고해서 유저 모드와 커널 모드를 구분함
- ex) 카메라나 키보드 등 I/O 디바이스는 운영체제를 통해서만 작동해야 함. 유저 모드를 기반으로 카메라가 켜진다면 사용자가 의도하지 않았는데 공격자가 카메라를 켤 수 있는 등 나쁜 짓을 하기 쉬움
- 운영체제를 통해서 작동한다고 해도 100% 막을 수는 없지만, 운영체제를 통해 작동하게 해야 막기가 쉬움
- modebit가 0일 경우 커널 모드, 1일 경우 유저모드로 설정되며 유저 모드일 경우 시스템 콜을 못하게 막아서 한정된 일만 가능하게 함
1.2 컴퓨터의 요소
컴퓨터는 CPU, DMA 컨트롤러, 메모리, 타이머, 디바이스 컨트롤러 등으로 이루어져 있음
CPU(Central Processing Unit)
- 산술논리연산장치, 제어장치, 레지스터로 구성되어 있는 컴퓨터 장치
- 인터럽트에 의해 메모리에 존재하는 명령어를 해석해서 실행
- 운영체제의 커널이 프로그램에 메모리를 올려 프로세스로 만들면 CPU가 이를 처리
- 제어장치(CU, Control Unit): 프로세스 조작을 지시. 입출력장치 간 통신을 제어, 명령어를 읽고 해석하며 데이터 처리를 위한 순서를 결정함
- 레지스터(Register): CPU 안의 매우 빠른 임시기억장치
- 산술논리연산장치(ALU, Arithmetic Logic Unit): 덧셈, 뺄셈 같은 산술 연산과 배타적 논리합, 논리곱 같은 논리 연산을 계산하는 디지털 회로
CPU 연산 처리 예시
① CU가 메모리와 레지스터에 계산할 값을 로드
② CU가 레지스터에 있는 값을 계산하라고 ALU에 명령하고, ALU는 계산
③ CU가 계산된 값을 다시 레지스터에서 메모리로 저장함
인터럽트
- 어떤 신호가 들어왔을 때 CPU를 잠깐 정지시키는 것
- I/O 인터럽트, 0으로 숫자를 나누는 산술연산에서 생기는 인터럽트, 프로세스 오류 등 ...
- 인터럽트가 발생되면 인터럽트 핸들러 함수가 모여있는 인터럽트 벡터로 가서 인터럽트 핸들러 함수가 실행됨
- 인터럽트는 우선순위에 따라 실행됨
- 하드웨어 인터럽트, 소프트웨어 인터럽트 존재
* 인터럽트 핸들러 함수: 인터럽트가 발생했을 때 이를 처리하기 위한 함수로 커널 내부의 IRQ (Interrupt Request)를 통해 호출됨
하드웨어 인터럽트
- 키보드를 연결한다거나 마우스를 연결하는 등 I/O 디바이스에서 발생하는 인터럽트
- 운영체제에 시스템 콜을 요청해서 원하는 디바이스로 향해 디바이스에 있는 작은 로컬 버퍼에 접근하여 일을 수행
소프트웨어 인터럽트
- 트랩(trap)이라고도 함. 프로세스 오류 등으로 프로세스가 시스템 콜을 호출할 때 발동함
DMA 컨트롤러
- I/O 디바이스가 메모리에 직접 접근할 수 있도록 돕는 하드웨어 장치
- 하나의 작업을 CPU와 DMA 컨트롤러가 동시에 하는 것을 방지
- 인터럽트로 인한 CPU의 부하를 막아줌
메모리
- 전자회로에서 데이터나 상태, 명령어들을 기록하는 장치
- 보통 RAM (Random Access Memory)를 가리킴
타이머
- 특정 프로그램에 시간 제한을 다는 역할
- 시간이 많이 걸리는 프로그램이 cpu 자원을 독점하는 것에 제한을 걸기 위해 존재
디바이스 컨트롤러
- 컴퓨터와 연결되어 있는 I/O 디바이스들의 작은 CPU
2. 메모리
2.1 메모리 계층
- 레지스터: CPU 안에 있는 작은 메모리
- 캐시: L1, L2 캐시
- 데이터를 미리 저장해두는 임시 저장소
- 빠른 장치와 느린 장치에서 속도 차이에 따른 병목 현상을 줄이기 위한 메모리
- 주기억장치: RAM
- 하드디스크로부터 일정량의 데이터를 복사해서 임시 저장하고 필요할 때마다 CPU에 빠르게 전달하는 역할
- 보조기억장치: SDD > HDD (속도 순)
캐시
캐시의 구조
- Cache Entry
- Block: 메인 메모리의 데이터 그룹 단위
- Tag: 블록의 고유 식별값, CPU는 태그를 통해 블록에 접근할 수 있음
- Valid Bit: 해당 캐시 블록에 올바른 데이터가 저장되어 있다는 것을 나타내는 유효 비트가 존재
- Cache Line: 캐시의 데이터 그룹 단위
- Line size = Block size
- 캐시 메모리 크기 = 캐시 블록의 수 x 블록 하나당의 크기
- 캐시 태그는 별도의 요구 공간임
지역성의 원리
캐시의 적중률을 극대화시키기 위해서 캐시에 저장할 데이터가 지역성을 가져야한다.
지역성이란 데이터 접근이 시간적 혹은 공간적으로 가깝게 일어나는 것을 의미한다.
시간 지역성
- 최근 사용한 데이터에 다시 접근하려는 특성
- ex) 반복문. 특정 부분을 반복하여서 접근해 방금 전에 접근했던 메모리를 다시 참고하는 확률이 높아짐
공간 지역성
- 최근 접근한 데이터를 이루고 있는 공간이나 그 가까운 공간에 접근하는 특성
- ex) 배열. 연속적으로 공간을 할당함
캐시히트와 캐시미스
- 캐시히트: 캐시에서 원하는 데이터를 찾음
- cpu 내부 버스를 이용해서 해당 데이터를 제어장치로 가져오기 때문에 빠름
- 캐시미스: 해당 데이터가 캐시에 없다면 주 메모리로 가서 데이터를 찾아오는 것
- 시스템 버스를 기반으로 작동하기 때문에 느림
캐시 매핑
- MMU: 가상 메모리 주소를 물리 주소로 변환해주는 역할. CPU는 가상 메모리 주소를 사용하기 때문에 메모리에서 데이터를 가지고 오려면 가상 메모리 주소를 물리 주소로 변환해주는 과정이 필요하다.
- 캐시에 데이터를 저장하는 방식에 따라 물리주소를 다르게 해석할 수 있다.
- Mapping Function: 캐시에 데이터를 저장하는 여러가지 방법
- 직접 매핑 (directed mapping): 캐시에 데이터가 들어올 때 이미 자리가 정해져있는 방식
- 계속 겹치는 부분은 캐시를 교체해줘야 하기 때문에 적중률이 낮음
- 연관 매핑 (associative mapping): 순서 상관 없이 저장
- 충돌은 적지만 모든 블록을 탐색해야함
- 집합 연관 매핑 (set associative mapping): 직접 매핑 + 연관 매핑
- cache line 여러 개가 set로 존재해서, block이 cache line set의 아무 곳이나 저장 가능
- 직접 매핑 (directed mapping): 캐시에 데이터가 들어올 때 이미 자리가 정해져있는 방식
웹 브라우저의 캐시
작은 저장소 쿠키, 로컬 스토리지, 세션 스토리지가 있음
보통 사용자의 커스텀 정보나 인증 모듈 관련 사항들을 웹 브라우저에 저장해서 추후 서버에 요청할 때 자신을 나타내는 아이덴티티나 중복 요청 방지를 위해 사용됨
- 로컬 스토리지: 만료기한이 없는 key-value 저장소. 10MB까지 저장가능하며 웹 브라우저를 닫아도 유지되고 도메인 단위로 저장, 생성됨. HTML5를 지원하지 않는 웹 브라우저에서는 사용할 수 없으며 클라이언트에서만 수정 가능함
- 세션 스토리지: 만료기한이 없는 key-value 저장소. 탭 단위로 세션 스토리지를 생성하며, 탭을 닫을 때 해당 데이터가 삭제됨. 5MB까지 저장이 가능하며 HTML5를 지원하지 않는 웹 브라우저에서는 사용할 수 없음. 클라이언트에서만 수정 가능함
데이터베이스의 캐싱 계층
메인 데이터 베이스 위에 레디스를 캐싱 계층으로 둬서 성능을 향상 시키기도 함
2.2 메모리 관리
가상 메모리
컴퓨터가 실제 이용 가능한 메모리 자원을 추상화하여 사용자들에게 매우 큰 메모리로 보이게 만드는 것
- 가상 메모리는 가상 주소와 실제 주소가 매핑되어 있고 프로세스 주소 정보가 들어있는 페이지 테이블로 관리됨. 속도 향상을 위해 TLB를 사용함
- TLB: 메모리와 CPU 사이에 있는 주소 변환을 위한 캐시. 페이지 테이블에 있는 리스트를 보관하며 CPU가 페이지 테이블까지 가지 않도록 해 속도를 향상시킬 수 있는 캐시 계층
- 페이지: 가상 메모리를 사용하는 최소 단위
- 프레임: 실제 메모리를 사용하는 최소 단위
- 스와핑: 페이지 폴트를 방지하기 위해 당장 사용하지 않는 영역을 하드디스크로 옮겨 필요할 때 다시 RAM으로 불러와 올리고, 사용하지 않으면 다시 하드디스크로 내림을 반복하여 RAM을 효과적으로 관리하는 것
- 페이지 폴트: 가상 메모리에는 존재하지만 실제 메모리인 RAM에는 현재 없는 데이터나 코드에 접근할 경우 발생
- 1. CPU가 가상주소를 MMU에게 보내면, MMU는 TLB에 가상주소에 해당하는 물리주소가 캐싱되어 있는지 체크함.
- 있다면, 해당 페이지의 물리주소를 CPU에게 보냄
- 없다면, 물리 메모리에 해당 프로세스의 페이지 테이블에 접근함
- 2. MMU가 페이지 테이블에서 물리 주소가 있는지 valid bit를 체크함
- valid bit값이 1이면, 해당 페이지의 물리 주소를 CPU에게 보냄
- valid bit값이 0이면, 페이지 폴트 인터럽트를 운영체제에 발생시킴
- 3. 운영체제가 페이지 폴트 인터럽트를 전달받으면 CPU의 동작을 정지시키고, 물리 메모리에 비어있는 프레임을 찾는다.
- 비어있는 프레임이 없을 경우 스와핑이 일어남
- 비어있는 프레임이 있는 경우 해당 페이지를 비어있는 프레임에 로드
- 4. 페이지 테이블을 최신화한다.
- 5. 중단되었던 CPU를 다시 시작한다.
- 1. CPU가 가상주소를 MMU에게 보내면, MMU는 TLB에 가상주소에 해당하는 물리주소가 캐싱되어 있는지 체크함.
- 스레싱(thrashing): 메모리의 페이지 폴트율이 높은 것으로, 컴퓨터의 심각한 성능 저하를 초래함
- 메모리에 너무 많은 프로세스가 동시에 올라가는 경우 스와핑이 많이 일어나서 발생하게 됨
- 페이지 폴트가 일어나면 CPU 이용률이 낮아짐
- CPU 이용률이 낮아지면 운영체제는 CPU 가용성을 높이기 위해 더 많은 프로세스를 메모리에 올리게 되고, 악순환이 반복됨
- 해결책
- 메모리 늘리기, HDD → SDD로 바꾸기
- 작업세트(working set)
- 프로세스의 과거 사용 이력인 지역성을 통해 결정된 페이지 집합을 만들어서 미리 메모리에 로드하는 것
- 미리 메모리에 로드하면 탐색에 드는 비용을 줄일 수 있고 스와핑 또한 줄일 수 있음
- PFF(Page Fault Frequency)
- 페이지 폴트 빈도에 따라 메모리를 조절하는 방법
- 페이지 폴트가 자주 일어나면 프로세스에 할당된 page frame 수를 증가시키고, 자주 일어나지 않으면 page frame 수를 감소시키는 방법
메모리 할당
시작 메모리 위치, 메모리의 할당 크기 기반으로 할당
연속할당
메모리에 연속적으로 공간을 할당함
- 고정 분할 방식: 메모리를 미리 나누어 관리하는 방식, 융통성이 없고 내부 단편화가 발생함
- 가변 분할 방식: 매 시점 프로그램의 크기에 맞춰 동적 메모리를 나눠 사용. 내부 단편화는 발생하지 않고 외부 단편화가 발생할 수 있음
- 최초적합: 위쪽이나 아래쪽부터 시작해서 빈 공간을 찾으면 바로 할당
- 최적적합: 프로세스의 크기 이상인 공간 중 가장 작은 공간부터 할당함
- 최악적합: 프로세스의 크기와 가장 많은 차이가 나는 공간에 할당
* 내부 단편화: 메모리를 나눈 크기보다 프로그램이 작아서 프로그램이 들어가기엔 짜잘한 공간이 많이 발생하는 현상
* 외부 단편화: 메모리를 나눈 크기보다 프로그램이 커서 들어가지 못하는 공간이 많이 발생하는 현상
불연속할당
메모리를 연속적으로 할당하지 않음
- 페이징 기법, segmentation, paged segmantation 존재
paging
- 동일한 크기의 페이지 단위로 나누어 메모리의 서로 다른 위치에 프로세스를 할당함
- 메모리를 동일한 크기의 페이지로 나누고 프로그램마다 페이지 테이블을 두어 페이지 테이블을 통해 메모리에 프로그램을 할당하는 것
- 메모리 공간의 크기가 균일하지 않은 문제가 없어지지만 주소 변환이 복잡
segmentation
- 페이지 단위가 아닌 의미 단위인 세그먼트로 나누는 방식
- 프로세스는 코드, 데이터, 스택, 힙 등으로 이루어지는데 코드와 데이터 등 이를 기반으로 나눌 수도 있으며 함수 단위로 나눌 수도 있음
- 공유와 보안 측면에서 좋으며 메모리 공간 크기가 균일하지 않은 문제가 발생됨
paged segmentation
- 먼저 segmentation을 수행하고 각 segment별로 paging을 나누는 것을 뜻함
- 기존의 Paging 기법만 사용했을 때보다 Page의 크기를 줄일 수 있다.
- 메모리 참조가 한번 더 증가하여 속도 저하의 문제점이 있다
페이지 교체 알고리즘
메모리는 한정되어 있기 때문에 스와핑이 많이 일어남
스와핑이 일어날 때 페이지 교체 알고리즘을 기반으로 일어남
- FIFO: 가장 먼저 온 페이지를 교체 영역에 가장 먼저 놓는 방법
- LRU(Least Recently Used): 참조가 가장 오래된 페이지를 바꿈. 얼마나 된건지 체크하기 위해서 카운터나 스택을 두어야함
- 카운터: CPU clock을 이용해서 매번 page 호출이 일어날때 마다 시간을 체크함. 페이지 교체가 일어나야 할 경우 시간이 가장 오래된 것을 선택함. 이 방법은 매번 교체가 발생할때마다 페이지 테이블에서 가장 오래된 것을 찾아야 하며, 페이지 테이블이 변경될때마다 해당 페이지의 시간도 같이 변경 되어야 함
- 스택: 매번 page가 호출될때마다 그 페이지 번호를 스택에 저장하는 방식이다. 페이지가 호출될때 스택에 이미 그 페이지가 있을 경우에는 해당 페이지를 스택에서 pop()시키고 새로 push()한다. 스택에 존재하지 않을 경우에는 그냥 push()한다.
- NUR(Not Used Recently): clock algorithm. 0과 1을 가진 bit를 둠. 1은 최근에 참조되었고 0은 참조되지 않음을 의미함. 시계 방향을 돌면서 0을 찾고, 0을 찾은 순간 해당 프로세스를 교체하고 해당 부분을 1로 바꾸는 알고리즘
- LFU(Least Frequently Used): 가장 참조 횟수가 적은 페이지를 교체. 즉, 많이 쓰지 않은 것을 교체
3. 프로세스와 스레드
- process: 컴퓨터에서 실행되고 있는 프로그램
- task: CPU 스케줄링의 대상
- thread: 프로세스 내 작업 흐름
프로그램이 메모리에 올라감: 프로그램 → 프로세스
운영체제의 cpu 스케줄러에 따라 cpu가 프로세스를 실행함
3.1 프로세스와 컴파일 과정
프로세스: 프로그램으로부터 인스턴스화된 것
프로그램: 프로그램 코드를 컴파일러가 컴파일 과정을 거쳐 이해할 수 있는 기계어로 번역되어 실행될 수 있는 파일이 된 것 (컴파일언어 기반으로 작성된 프로그램에 한하여, 인터프리터 언어로된 프로그램이랑은 다름)
- 전처리: 소스 코드의 주석을 제거하고, #include 등 헤더 파일을 병합하여 매크로를 치환함
- 컴파일러: 오류 처리, 코드 최적화 작업을 하며 어셈블리어로 변환함
- 어셈블러: 어셈블리어는 목적 코드(object code)로 변환됨. 이때 확장자가 운영체제마다 다름 (리눅스에서는 .o)
- 링커: 프로그램 내에 있는 라이브러리 함수 또는 다른 파일들과 object code를 결합하여 실행파일을 만듦. 실행 파일의 확장자는 .exe / .out임
- 정적 라이브러리: 프로그램 빌드시 라이브러리가 제공하는 모든 코드를 실행 파일에 넣는 방식
- 시스템 환경 등 외부 의존도가 낮음
- 코드 중복 등 메모리 효율성이 떨어짐
- 동적 라이브러리: 프로그램 실행 시 필요할 때만 DLL이라는 함수 정보를 통해 참조하는 방식
- 외부 의존도가 높아짐
- 메모리 효율성이 좋음
- 정적 라이브러리: 프로그램 빌드시 라이브러리가 제공하는 모든 코드를 실행 파일에 넣는 방식
3.2 프로세스의 상태
- 생성(CREATE): 프로세스가 생성된 상태로 PCB가 할당됨
- fork(): 부모 프로세스의 주소 공간을 그대로 복사해, 새로운 자식 프로세스를 생성하는 함수. 주소 공간만 복사하고 부모 프로세스의 비동기 작업 등을 상속하지 않음
- exec(): 새롭게 프로세스를 생성하는 함수
- 대기(READY): 메모리 공간이 충분하면 메모리 할당을 받고 아니면 아닌 상태로 대기하고 있으며, CPU 스케줄러로부터 CPU 소유권이 넘어오기를 기다리는 상태
- 대기중단(READY SUSPENDED): 메모리 부족으로 일시 중단된 상태
- 실행(RUNNING): CPU 소유권과 메모리를 할당받고 인스트럭션을 수행 중인 상태
- 중단(BLOCKED): 어떤 이벤트가 발생한 이후 기다리며 프로세스가 차단된 상태
- ex) I/O 디바이스에 의한 인터럽트
- 일시중단(BLOCKED SUSPENDED): 대기중단과 유사함. 중단된 상태에서 프로세스가 실행되려고 하지만 메모리 부족으로 일시 중단된 상태
- 종료(TERMINATED): 메모리와 CPU 소유권을 모두 놓고 가는 상태.
- 자연스럽게 종료되는 상황도 있지만 부모 프레세스가 자식 프로세스를 강제로 종료시키는 비자발적 종료도 있음. 자식 프로세스에 할당된 자원의 한계치를 넘어서거나 부모 프로세스가 종료되거나 사용자가 process.kill 등 여러 명령어로 프로세스를 종료할 때 발생함
3.3 프로세스의 메모리 구조
- 스택
- 지역변수, 매개변수, 함수가 저장됨
- 컴파일 시에 크기가 결정되며 '동적'인 특징을 가짐
- 높은 주소에서 낮은 주소로 할당
- 함수를 재귀적으로 호출하면서 동적으로 크기가 늘어날 수 있는데, 힙과 스택의 메모리 영역이 겹치면 안되기 때문에 힙과 스택 사이의 공간을 비워놓음
- 힙
- 동적 할당할때 사용되며 런타임 시 크기가 결정됨
- 낮은 주소에서 높은 주소로 할당
- ex) 동적배열
- 데이터 영역
- 전역변수, 정적변수가 저장됨
- BSS segment: 초기화되지 않은 변수가 0으로 초기화되어 저장됨
- Data segment: 0이 아닌 다른 값으로 할당된 변수들이 저장됨
- 코드 영역
- 프로그램에 내장되어 있는 소스 코드가 들어가있는 영역
- 수정 불가능한 기계어로 저장되어 있으며 정적인 특징을 가짐
3.4 PCB (Process Control Block)
운영체제에서 프로세스에 대한 메타데이터를 저장한 데이터
프로세스가 생성되면 운영체제는 해당 PCB를 생성함
프로그램이 실행되면 프로세스가 생성되고 프로세스 주소 값들에 앞서 설명한 스택, 힙 등의 구조를 기반으로 메모리가 할당됨. 그리고 이 프로세스의 메타데이터들이 PCB에 저장되어 관리됨. 프로세스의 중요한 정보를 포함하고 있기 때문에 일반 사용자가 접근하지 못하도록 커널 스택의 가장 앞 부분에서 관리됨
PCB의 구조
- 프로세스 스케줄링 상태: 프로세스가 CPU에 대한 소유권을 얻은 이후 또는 이후 경과된 시간과 같은 기타 스케줄링 정보
- ready, blocked 등
- 프로세스 ID: 해당 프로세스의 자식 프로세스 ID
- 프로세스 권한: 컴퓨터 자원 또는 I/O 디바이스에 대한 권한 정보
- 프로그램 카운터(pc): 프로세스에서 실행해야 할 다음 명령어의 주소에 대한 포인터
- CPU 레지스터: 프로세스를 실행하기 위해 저장해야 할 레지스터에 대한 정보
- CPU 스케줄링 정보: CPU 스케줄러에 의해 중단된 시간 등에 대한 정보
- 계정 정보: 프로세스 실행에 사용된 CPU 사용량, 실행한 유저의 정보
- I/O 상태 정보: 프로세스에 할당된 I/O 디바이스 목록
컨텍스트 스위칭
- PCB를 교환하는 과정
- 한 프로세스에 할당된 시간이 끝나거나 인터럽트에 의해 발생함
- concurrency: 싱글코어 컴퓨터는 많은 프로그램을 동시에 실행하는 것처럼 보이지만 어떤 시점에 실행되고 있는 프로세스는 단 한개이며, 많은 프로세스가 동시에 구동되는 것처럼 보이는 것은 다른 프로세스와의 컨텍스트 스위칭이 아주 빠른 속도로 실행되기 때문임
- parallelism: 근데 현대 컴퓨터는 멀티코어 CPU를 가지기 때문에 한 시점에 한 개의 프로그램이라는 설명은 틀린 말임
아래 컨텍스트 스위칭 그림은 싱글코어를 기준으로 설명한 것
컨텍스트 스위칭에 드는 비용
- 유휴 시간: 다른 프로세스가 실행될 때, 기다리게 되는 시간
- 캐시: 컨텍스트 스위칭이 일어날 때 기존의 프로세스가 가지고 있는 메모리 주소가 그대로 있으면 잘못된 주소 변환이 생기므로 캐시클리어 과정을 겪게 되고 이 때문에 캐시미스가 발생함
스레드에서의 컨텍스트 스위칭
- 스레드에서도 일어남. 스레드는 스택 영역을 제외한 모든 메모리를 공유하기 때문에 스레드 컨텍스트 스위칭의 경우 비용이 더 저고 시간도 더 적게 걸림
3.5 멀티프로세싱
여러 개의 '프로세스', 즉 멀티 프로세스를 통해 동시에 두 가지 이상의 일을 수행할 수 있는 것
하나 이상의 일을 병렬로 처리할 수 있으며 특정 프로세스의 메모리, 프로세스 중 일부에 문제가 발생하더라도 다른 프로세스를 이용해서 처리할 수 있으므로 신뢰성이 높다는 강점 존재
Ex) 웹 브라우저
멀티 프로세스 구조를 가지고 있음
- 브라우저 프로세스: 주소 표시줄, 북마크 막대, 앞뒤 버튼 등을 담당하며 네트워크 요청이나 파일 접근 권한을 담당함
- 렌더러 프로세스: 웹 사이트가 '보이는' 부분의 모든 것을 제어함
- 플러그인 프로세스: 웹 사이트에서 사용하는 플러그인을 제어함
- GPU 프로세스: GPU를 이용해서 화면을 그리는 부분을 제어함
IPC(Inter Process Communication)
- 프로세스끼리 데이터를 주고받고 공유 데이터를 관리하는 매커니즘을 뜻함
- 멀티프로세스는 IPC가 가능함
- 클라이언트와 서버를 예로 들 수 있는데, 클라이언트는 데이터를 요청하고 서버는 클라이언트 요청에 응답하는 것
- 공유 메모리, 파일, 소켓, 익명 파이프, 명명 파이프, 메시지 큐가 있음. 메모리가 완전히 공유되는 스레드보다는 속도가 느림
공유메모리
- 여러 프로세스에 동일한 메모리 블록에 대한 접근 권한이 부여되어 프로세스가 서로 통신할 수 있도록 공유 버퍼를 생성하는 것
- 각 프로세스의 메모리를 다른 프로세스가 접근할 수 없지만 공유 메모리를 통해 여러 프로세스가 하나의 메모리를 공유할 수 있음
- IPC 방식 중 어떤 매개체를 통해 데이터를 주고 받는 것이 아닌 메모리 자체를 공유하기 때문에 불필요한 데이터 복사의 오버헤드가 발생하지 않아 가장 빠르며 같은 메모리 영역을 여러 프로세스가 공유하기 때문에 동기화가 필요함
- 참고로 하드웨어 관점에서 공유 메모리는 CPU가 접근할 수 있는 큰 랜덤 접근 메모리인 RAM을 가리키기도 함
파일
- 디스크에 저장된 데이터 또는 파일 서버에서 제공한 데이터
- 이를 기반으로 프로세스 간 통신을 함
소켓
- 동일한 컴퓨터의 다른 프로세스나 네트워크의 다른 컴퓨터 인터페이스를 통해 전송하는 데이터를 의미하며 TCP와 UDP가 있음
익명 파이프(unnamed pipe)
- 프로세스 간에 FIFO 방식으로 읽히는 임시 공간인 파이프를 기반으로 데이터를 주고 받으며 단방향 방식의 읽기 전용, 쓰기 전용 파이프를 만들어서 작동하는 방식을 말함
- 이는 부모, 자식 프로세스 간에만 사용할 수 있고 다른 네트워크 상에서는 사용이 불가능함
명명된 파이프(named pipe)
- 파이프 서버와 하나 이상의 파이프 클라이언트 간의 통신을 위한 명명된 단방향 또는 이중 파이프를 말함
- 클라이언트/서버 통신을 위한 별도의 파이프를 제공하며, 여러 파이프를 동시에 사용할 수 있음
- 컴퓨터의 프로세스끼리 또는 다른 네트워크 상의 컴퓨터와도 통신을 할 수 있음
- 아래의 그림처럼 보통 서버용 파이프와 클라이언트용 파이프로 구분해서 작동하며 하나의 인스턴스를 열거나 여러 개의 인스턴스를 기반으로 통신함
메시지 큐
- 메시지를 큐로 관리하는 것
- 커널의 전역변수 형태 등 커널에서 전역적으로 관리되며 다른 IPC 방식에 비해서 사용 방법이 매우 직관적이고 간단하며 다른 코드의 수정 없이 단지 몇 줄의 코드를 추가시켜 간단하게 메시지 큐에 접근할 수 있는 장점이 있음
- 공유 메모리를 통해 IPC를 구현할 때 쓰기 및 읽기 빈도가 높으면 동기화 때문에 기능을 구현하는 것이 매우 복잡해지는데, 이때 대안으로 메시지 큐를 사용하기도 함
3.6 스레드와 멀티스레딩
스레드
프로세스의 실행가능한 작은 단위
프로세스는 여러 스레드를 가질 수 있음
같은 프로세스 내의 스레드는 코드, 데이터, 힙을 공유
멀티스레딩
- 프로세스 내 작업을 여러 개의 스레드로 처리하는 기법
- 스레드끼리 서로 자원을 공유하기 때문에 효율성이 높음
- 장점
- 응답성 : 다른 스레드가 중단되거나 긴 작업을 수행하더라도 프로그램의 수행이 계속 되어 사용자에 대한 응답성이 증가한다.
ex) 멀티 스레드가 적용된 웹 브라우저 프로그램에서 하나의 스레드가 이미지 파일을 로드하고 있는 동안, 다른 스레드에서 사용자와 상호작용 가능 - 경제성 : 프로세스 내 자원들과 메모리를 공유하기 때문에 메모리 공간과 시스템 자원 소모가 줄어든다. 스레드 간 통신이 필요한 경우에도 쉽게 데이터를 주고 받을 수 있으며, 프로세스의 context switching과 달리 스레드 간의 context switching은 캐시 메모리를 비울 필요가 없기 때문에 더 빠르다.
- 멀티프로세서 활용 : 다중 CPU 구조에서는 각각의 스레드가 다른 프로세서에서 병렬로 수행될 수 있으므로 병렬성이 증가한다.
- 응답성 : 다른 스레드가 중단되거나 긴 작업을 수행하더라도 프로그램의 수행이 계속 되어 사용자에 대한 응답성이 증가한다.
- 단점
- 임계 영역(Critical Section): 둘 이상의 스레드가 동시에 실행하면 문제를 일으키는 코드 블록. 공유하는 자원에 동시에 접근하는 경우, 프로세스와는 달리 스레드는 데이터와 힙 영역을 공유하기 때문에 어떤 스레드가 다른 스레드에서 사용 중인 변수나 자료구조에 접근하여 엉뚱한 값을 읽어오거나 수정할 수 있음
- 동기화를 통해 스레드의 작업 처리 순서와 공유 자원에 대한 접근을 컨트롤할 수 있다. 그러나 불필요한 부분까지 동기화를 하는 경우, 과도한 lock으로 인해 병목 현상을 발생시켜 성능이 저하될 가능성이 높기 때문에 주의해야 한다. 동기화 방법에는 뮤텍스와 세마포어가 있다.
- context switching, 동기화 등의 이유 때문에 싱글 코어 멀티 스레딩은 스레드 생성 시간이 오히려 오버헤드로 작용해 단일 스레드보다 느리다.
3.7 공유 자원과 임계 영역
공유 자원
- 시스템 안에서 각 프로세스, 스레드가 함께 접근할 수 있는 모니터, 프린터, 메모리, 파일, 데이터 등의 자원이나 변수
- 경쟁상태(race condition): 두 개 이상의 프로세스가 공유자원을 동시에 읽거나 쓰는 상태
임계 영역 (Critical Section)
- 공유 자원에 접근할 때 순서 등의 이유로 결과가 달라지는 영역
- 해결방법: 뮤텍스, 세마포어, 모니터
- 상호 배제, 한정 대기, 융통성이라는 조건을 만족함
- 이 방법의 토대가 되는 개념: lock
* 상호 배제: 한 프로세스가 임계 영역에 있을 때 다른 프로세스는 들어갈 수 없음
* 한정 대기: 특정 프로세스가 영원히 임계 영역에 들어가지 못하면 안됨
* 융통성: 한 프로세스가 다른 프로세스의 일을 방해해서는 안됨
뮤텍스 (Mutex)
- 공유 자원을 사용하기 전에 설정하고 사용하기 전에 해제하는 잠금
- 화장실이 하나뿐인 식당
- key에 해당하는 어떤 객체가 있으며, 객체를 소유한 프로세스/스레드 만이 공유 자원에 접근할 수 있음
- 잠금이 설정되면 다른 스레드는 잠긴 코드 영역에 접근할 수 없음
- 뮤텍스는 하나의 상태(잠금 또는 잠금해제)만 가짐
세마포어 (Semaphore)
- 일반화된 뮤텍스
- 신호를 기반으로 상호 배제가 일어나는 신호 매커니즘
- 여러 개의 칸을 가진 화장실과 빈 화장실 수를 나타내는 전광판
- 현재 공유 자원에 접근할 수 있는 스레드/프로세스 수를 나타내는 값을 두어 상호배제를 달성하는 기법
- 간단한 정수 값과 wait, signal 함수로 공유 자원에 대한 접근을 처리함
- wait(): 자신의 차례가 올 때까지 기다리는 함수
- signal(): 다음 프로세스로 순서를 넘겨주는 함수
- 프로세스가 공유 자원에 접근하면 wait() 작업을 수행하고
- 프로세스가 공유 자원을 해제하면 세마포어에서 signal() 작업을 수행함
- 세마포어에는 조건 변수가 없고 프로세스가 세마포어 값을 수정할 때는 다른 프로세스는 동시에 세마포어 값을 수정할 수 없음
바이너리 세마포어
0과 1의 두 가지 값만 가질수 있는 세마포어
카운팅 세마포어
여러 개의 값을 가질 수 있는 세마포어, 여러 자원에 대한 접근을 제어하는데 사용됨
모니터
- 둘 이상의 스레드나 프로세스가 공유 자원에 안전하게 접근할 수 있도록 공유 자원을 숨기고 해당 접근에 대해 인터페이스만 제공함
- 모니터큐를 통해 공유 자원에 대한 작업들을 순차적으로 처리함
- 상호배제가 자동으로 이루어짐
3.8 교착 상태 (Dead Lock)
두 개 이상의 프로세스들이 서로 가진 자원을 기다리며 중단된 상태
프로세스 A가 프로세스 B의 어떤 자원을 요청할 때, 프로세스 B도 프로세스 A가 점유하고 있는 자원을 요청하는 것
교착 상태의 원인
- 상호 배제: 한 프로세스가 자원을 독점하고 있으며 다른 프로세스들이 접근이 불가능함
- 점유 대기: 특정 프로세스가 점유한 자원을 다른 프로세스가 요청하는 상태
- 비선점: 다른 프로세스의 자원을 강제적으로 가져올 수 없음
- 환형 대기: 프로세스 A는 프로세스 B의 자원을 요구하고, 프로세스 B는 프로세스 A의 자원을 요구하는 등 서로가 서로의 자원을 요구하는 상황
교착 상태 해결방법
- 자원을 할당할 때 애초에 조건이 성립되지 않도록 설계함
- 은행원 알고리즘 사용 : 교착 상태 가능성이 없을 때만 자원을 할당하며, 프로세스 당 요청할 자원들의 최대치를 통해 자원 할당 가능 여부를 파악하는 알고리즘
- 교착 상태가 발생하면 사이클이 있는지 찾아보고 이에 관련한 프로세스를 하나씩 지움
- 교착 상태는 매우 드물게 일어나기 때문에 이를 처리하는 비용이 더 커서 교착 상태가 발생하면 사용자가 작업을 종료함
- 은행원 알고리즘: 총 자원의 양, 현재 할당한 자원의 양, 각 프로세스가 요청하는 자원의 양을 기준으로 안전 또는 불안전 상태로 나누고 안정 상태로 가도록 자원을 할당하는 알고리즘
- 안전 상태: 시스템이 데드락을 일으키지 않으면서 각 프로세스가 요구한 최대 요구량 만큼의 자원을 할당해줄 수 있는 상태, 안전 순서열이 존재하는 상태
- 불안전 상태: 데드락이 발생하는 상태
4. CPU 스케줄링 알고리즘
CPU 스케줄링 알고리즘에 따라 프로세스에서 해야하는 일을 스레드 단위로 CPU에 할당
프로그램이 실행될 때는 CPU 스케줄링 알고리즘이 어떤 프로그램에 CPU 소유권을 줄 지 결정함
이 알고리즘은 CPU 이용률을 높게, 주어진 시간에 많은 일을 하게, Ready Queue에 있는 프로세스는 적게, 응답 시간은 짧게 설정하는 것을 목표로 함
4.1 비선점형 방식 (non-preemptive)
프로세스가 스스로 CPU 소유권을 포기하는 방식, 강제로 프로세스를 중지하지 않음. 따라서 컨텍스트 스위칭으로 인한 부하가 적음
- FCFS (First Come, First Served): 가장 먼저 온 것을 가장 먼저 처리하는 알고리즘. 길게 수행되는 프로세스 때문에 준비 큐에서 오래 기다리는 현상(convoy effect)이 발생하는 단점
- SJF (Shortest Job First): 실행 시간이 가장 짧은 프로세스를 가장 먼저 실행하는 알고리즘. 긴 시간을 가진 프로세스가 실행되지 않은 현상(starvation)이 일어나며 평균 대기 시간이 가장 짧음. 하지만 실제로는 실행 시간을 알 수 없기 때문에 과거의 실행했던 시간을 토대로 추측해서 사용함
- 우선순위: 기존 SJF 스케줄링의 경우 긴 시간을 가진 프로세스가 실행되지 않는 현상이 있었음. 오래된 작업일수록 우선순위를 높이는 방법(aging)을 통해 단점을 보완한 알고리즘
4.2 선점형 방식 (preemptive)
현대 운영체제가 사용하고 있는 방식. 지금 사용하고 있는 프로세스를 알고리즘에 의해 중단시켜 버리고 강제로 다른 프로세스에 CPU 소유권을 할당하는 방식
- 라운드 로빈(Round Robin): 현대 컴퓨터가 사용하는 스케줄링인 우선순위 스케줄링의 일종으로 각 프로세스에 동일한 할당 시간을 주고 그 시간에 끝나지 않으면 ready queue의 뒤로 가는 알고리즘. 로드밸런서에서 트래픽 분산 알고리즘으로도 사용됨
- SRF: SJF는 중간에 실행 시간이 더 짧은 작업이 들어와도 기존 짧은 작업을 모두 수행하고 그다음 짧은 작업을 이어나가는데, SRF는 중간에 더 짧은 작업이 들어오면 수행하던 프로세스를 중지하고 해당 프로세스를 수행하는 알고리즘
- 다단계 큐: 우선순위 큐를 여러 개 사용하고, 큐마다 라운드 로빈이나 FCFS 등 다른 스케줄링 알고리즘을 적용한 것을 말함. 큐 간의 프로세스 이동이 안되므로 스케줄링 부담이 적지만 유연성이 떨어지는 특징이 있음