쉬운 프로그래밍

[알고리즘] 프로그래머스 - 디스크 컨트롤러 - JAVA 본문

알고리즘/구현

[알고리즘] 프로그래머스 - 디스크 컨트롤러 - JAVA

쉬운형 2021. 9. 26. 19:10

https://programmers.co.kr/learn/courses/30/lessons/42627

 

코딩테스트 연습 - 디스크 컨트롤러

하드디스크는 한 번에 하나의 작업만 수행할 수 있습니다. 디스크 컨트롤러를 구현하는 방법은 여러 가지가 있습니다. 가장 일반적인 방법은 요청이 들어온 순서대로 처리하는 것입니다. 예를

programmers.co.kr

문제 설명

하드디스크는 한 번에 하나의 작업만 수행할 수 있습니다. 디스크 컨트롤러를 구현하는 방법은 여러 가지가 있습니다. 가장 일반적인 방법은 요청이 들어온 순서대로 처리하는 것입니다.

예를들어

- 0ms 시점에 3ms가 소요되는 A작업 요청 - 1ms 시점에 9ms가 소요되는 B작업 요청 - 2ms 시점에 6ms가 소요되는 C작업 요청

와 같은 요청이 들어왔습니다. 이를 그림으로 표현하면 아래와 같습니다.

한 번에 하나의 요청만을 수행할 수 있기 때문에 각각의 작업을 요청받은 순서대로 처리하면 다음과 같이 처리 됩니다.

- A: 3ms 시점에 작업 완료 (요청에서 종료까지 : 3ms) - B: 1ms부터 대기하다가, 3ms 시점에 작업을 시작해서 12ms 시점에 작업 완료(요청에서 종료까지 : 11ms) - C: 2ms부터 대기하다가, 12ms 시점에 작업을 시작해서 18ms 시점에 작업 완료(요청에서 종료까지 : 16ms)

이 때 각 작업의 요청부터 종료까지 걸린 시간의 평균은 10ms(= (3 + 11 + 16) / 3)가 됩니다.

하지만 A → C → B 순서대로 처리하면

- A: 3ms 시점에 작업 완료(요청에서 종료까지 : 3ms) - C: 2ms부터 대기하다가, 3ms 시점에 작업을 시작해서 9ms 시점에 작업 완료(요청에서 종료까지 : 7ms) - B: 1ms부터 대기하다가, 9ms 시점에 작업을 시작해서 18ms 시점에 작업 완료(요청에서 종료까지 : 17ms)

이렇게 A → C → B의 순서로 처리하면 각 작업의 요청부터 종료까지 걸린 시간의 평균은 9ms(= (3 + 7 + 17) / 3)가 됩니다.

각 작업에 대해 [작업이 요청되는 시점, 작업의 소요시간]을 담은 2차원 배열 jobs가 매개변수로 주어질 때, 작업의 요청부터 종료까지 걸린 시간의 평균을 가장 줄이는 방법으로 처리하면 평균이 얼마가 되는지 return 하도록 solution 함수를 작성해주세요. (단, 소수점 이하의 수는 버립니다)

제한 사항

  • jobs의 길이는 1 이상 500 이하입니다.
  • jobs의 각 행은 하나의 작업에 대한 [작업이 요청되는 시점, 작업의 소요시간] 입니다.
  • 각 작업에 대해 작업이 요청되는 시간은 0 이상 1,000 이하입니다.
  • 각 작업에 대해 작업의 소요시간은 1 이상 1,000 이하입니다.
  • 하드디스크가 작업을 수행하고 있지 않을 때에는 먼저 요청이 들어온 작업부터 처리합니다.

입출력 예

jobs return
[[0, 3], [1, 9], [2, 6]] 9

입출력 예 설명

문제에 주어진 예와 같습니다.

  • 0ms 시점에 3ms 걸리는 작업 요청이 들어옵니다.
  • 1ms 시점에 9ms 걸리는 작업 요청이 들어옵니다.
  • 2ms 시점에 6ms 걸리는 작업 요청이 들어옵니다.

풀이과정

문제 이해를 잘못해서 굉장히 많은 시간을 날렸다...

 

대기시간을 최소로 줄여서 요청되는 작업을 수행하면 되는 문제이다.

 

예시처럼, 더 빨리 요청된 작업이 있더라도 이후에 요청된 작업을 먼저 수행하는 경우에 대기시간이 더 줄어들면 그것부터 수행하도록 한다. 이 기준은 현재 시간에서 수행할 수 있는 작업중에서 가장 소요시간이 적게 드는 작업부터 수행하면 대기시간을 최소로 할 수 있다.

 

예를 들어 [0, 10] , [1, 10], [7, 7], [12, 3]과 같은 작업이 들어온다고 가정해보자.

 

먼저 가장 빨리 들어온 [0, 10] 작업을 수행하면 현재 시간은 10ms이다. 10ms에서 수행할 수 있는 작업은 [1, 10]뿐이므로 다름으로 [1, 10]을 수행한다.

 

이러한 과정을 거치면 [7, 7], [12, 3] 작업이 남아있다. 현재는 20ms이므로 두 작업 모두 수행이 가능하다.

 

여기서 주의해야 할 것은 [7, 7]이 먼저 요청된 작업이긴 하지만 [12, 3]작업을 먼저 수행해야 대기시간이 최소가 된다.

 

이를 구현하기 위해 아래와 같은 과정을 수행한다.

 

1. 두개의 우선순위큐를 사용(대기큐, 작업큐)라고 가정함. 대기큐는 작업요청시간대로 우선 순위를 가지도록, 작업큐는 소요시간대로 우선순위를 가지도록 한다.

 

2. 모든 작업을 수행 완료 할 때까지 while문을 돌린다.

 

3. while문을 한번 더 돌려 작업큐 내의 원소중에서 요청시간이 현재 소요된 시간보다 작거나 같은 경우 대기큐에 삽입함

 

4. 대기큐가 비어있는 경우 다음 작업까지 메모리가 놀고있는거임. 소요된 시간값을 대기큐의 peek값의 요청시간으로 변경

 

5. 대기큐에 들어있는 원소를 작업수행함(큐에서 뺌)

 

소스코드

import java.util.*;

class Solution {
    public int solution(int[][] jobs) {
        PriorityQueue<Job> wait = new PriorityQueue<>((o1, o2) -> o1.start - o2.start);
        PriorityQueue<Job> ready = new PriorityQueue<>((o1, o2) -> o1.cost - o2.cost);
        int waitTime = 0;
        int costTime = 0;
        int idle = 0;
        int count = 0;
        
        for (int i = 0; i < jobs.length; i++) {
            wait.add(new Job(jobs[i][0], jobs[i][1]));
        }
        
        while (count < jobs.length) {
            while (!wait.isEmpty() && wait.peek().start <= costTime) {
                ready.offer(wait.poll());
            }
            
            if (ready.isEmpty()) {
                idle += wait.peek().start - costTime;
                costTime = wait.peek().start;
            }
            else {
                Job job = ready.poll();
                waitTime += costTime - job.start;
                costTime += job.cost;
                System.out.println(job.start + " " + job.cost);
                count++;
            }
        }
        
        return (waitTime + costTime - idle) / jobs.length;
    }
    
    class Job {
        int start;
        int cost;
        
        public Job(int start, int cost) {
            this.start = start;
            this.cost = cost;
        }
    }
}

 

Comments