본문으로 건너뛰기

"pe/computer-architecture" 태그로 연결된 34개 게시물개의 게시물이 있습니다.

기술사 컴퓨터 아키텍처 토픽

모든 태그 보기

가속화된 GPU 기반 분산 처리

· 약 4분

가속화된 GPU 분산 처리 개념

  • GPU의 대규모 병렬 연산 능력을 활용하여 빅데이터, 딥러닝, 과학적 시뮬레이션 등의 고속 처리를 지원하는 기술
  • 데이터 분석, 인공지능(AI), 금융 연산 등 다양한 분야에서 실시간 처리 및 고성능 컴퓨팅(HPC, High Performance Computing)을 가능

가속화된 GPU 분산 처리 개념도, 구성요소, 활용사례

가속화된 GPU 분산 처리 개념도

가속화된 GPU 분산 처리 구성요소

구성 요소설명관련 기술
GPU 클러스터다수의 GPU 노드를 연결하여 병렬 연산 수행NVIDIA DGX, AMD Instinct
연산 프레임워크GPU 병렬 연산을 지원하는 API 및 프레임워크CUDA, OpenCL, Vulkan
분산 처리 시스템GPU를 클러스터 환경에서 활용하는 플랫폼Apache Spark, Ray, TensorFlow
고속 네트워크GPU 간 빠른 데이터 전송을 위한 네트워크NVLink, InfiniBand
메모리 최적화GPU 메모리와 호스트 메모리 간 데이터 전송 최적화Unified Memory, Zero-Copy

가속화된 GPU 분산 처리 활용사례

분야사례설명
딥러닝 모델 학습OpenAI GPT 모델수천 개의 GPU를 활용한 신경망 모델 학습
빅데이터 분석NVIDIA RAPIDSApache Spark와 GPU 결합으로 데이터 처리 속도 20배 향상
과학적 시뮬레이션CERN 물리학 연구GPU 기반 입자 충돌 시뮬레이션 수행
의료 영상 처리GE HealthcareGPU 활용하여 MRI, CT 영상 처리 시간 90% 단축

가속화된 GPU 고려사항

도전 과제문제점해결 방안
데이터 전송 병목GPU 간 데이터 이동 시 전송 비용이 높은 문제NVLink, InfiniBand와 같은 고속 네트워크 기술 활용
전력 소비 증가GPU 클러스터의 대규모 전력 소비로 운영 비용 상승에너지 효율이 높은 GPU 아키텍처 도입 (NVIDIA Hopper)
확장성 한계클러스터 크기가 커질수록 네트워크 병목 및 관리 복잡성 증가Kubernetes 기반 컨테이너 오케스트레이션 도입
개발 및 운영 복잡성GPU 프로그래밍이 어렵고, 병렬 처리 최적화가 필요TensorFlow, PyTorch와 같은 고수준 API 활용

멀티 GPU

· 약 4분

멀티 GPU 개요

multi gpu trends

  • 딥러닝에서 대규모 신경망을 효율적으로 학습하기 위해 GPU 활용, 다수 GPU를 연결하기 위한 인터커넥트 기술 발전으로 멀티 GPU 필요성 증가

멀티 GPU 구성도, 핵심요소, 장점

멀티 GPU 구성도

multi gpu

  • 여러 개의 GPU를 동시에 사용하여 대규모 신경망 학습 및 추론 훈련

멀티 GPU 핵심요소

구분역할설명
SM (Streaming Multiprocessor)연산 처리 유닛GPU 내부에서 병렬 연산을 수행하는 핵심 유닛으로, 작업을 처리하고 메모리 관리 유닛으로 데이터를 전달
MMU (Memory Management Unit)메모리 관리GPU의 메모리 액세스를 관리하고 가상 메모리 주소를 물리 메모리 주소로 변환
NVLink NIC데이터 전송 인터페이스NVLink를 통해 GPU 간의 고속 데이터 전송을 담당
NVLink Network Switch데이터 전송 경로 관리여러 GPU 간 데이터 흐름을 관리하고, 최적의 전송 경로를 설정
TLB (Translation Lookaside Buffer)주소 변환 캐싱MMU에서 자주 사용하는 주소 변환 결과를 캐싱하여 속도 향상
HBM (High Bandwidth Memory)고속 메모리고속 메모리로 데이터 저장 및 접근을 지원, GPU 연산 속도 최적화

멀티 GPU 장점

구분장점설명
성능향상실시간 처리멀티 GPU를 통해 연산 작업을 병렬로 처리하여 실시간 성능을 향상시킴
대규모 처리대규모 데이터 세트나 복잡한 모델을 빠르게 학습 및 추론 가능
자원최적화메모리 용량각 GPU의 메모리를 활용하여 단일 GPU의 메모리 제한을 극복
모델 병렬화모델을 여러 GPU로 분산하여 병렬 연산을 최적화
확장성GPU 확장추가 GPU를 연결하여 시스템의 연산 성능을 손쉽게 확장 가능
데이터 추가대규모 데이터 처리 시 여러 GPU를 활용하여 병렬 데이터 전처리 및 학습 가능

멀티 GPU 학습 환경 구축시 고려사항

구분고려사항비고
물리적 인프라HW구성GPU 선택, 서버, CPU, 파워, 냉각시스템
NW구성내부연결, 서버 간 연결, 로드밸런싱, 스토리지 네트워크
논리적 시스템SW환경OS, 프레임워크, 분산훈련, 모니터링 도구
성능최적화GPU 메모리 관리, 연산정밀도, 배치 크기, 하이퍼파라미터 튜닝
병렬처리 환경데이터 병렬화, 파이프라인 병렬화, 모델 병렬화
  • TIA-942 데이터센터 구축을 위한 표준 요구사항을 참조하여 비용효율성과 가용성 제고

스토리지 가상화

· 약 4분

스토리지 가상화 개념

  • 물리적으로 분리된 다수 스토리지를 논리적으로 통합하여 스토리지 자원의 가용성과 편리성을 향상시키는 기술
  • 기존스토리지 낮은 활용도(48%) 극복, 벤더 종속적인 이기종 스토리지 호환성 문제, 유지보수 비용 절감

스토리지 가상화 유형

구분블록스토리지 가상화파일스토리지 가상화오브젝트스토리지 가상화
개념도block-storagefile-storageobject-storage
개념물리적 스토리지를 블록 단위로 추상화하여 논리적 블록으로 제공물리적 스토리지를 파일단위로 추상화하여 파일명, 경로 통해 공유데이터를 개체 단위로 관리하여 데이터와 메타데이터를 함께 저장하고 논리적 통합하여 제공
주요환경SANNAS/SAN클라우드 스토리지, 대규모 비정형데이터 저장소
접근방식OS가 논리적 블록주소 통해 접근파일명, 경로RESTful API, HTTP, HTTPS
프로토콜iSCSI, FCNFC, SMB, CIFSS3API, HTTP, HTTPS
주요사례DB, 고성능 어플리케이션, 가상머신디스크파일공유, NW기반 데이터 접근클라우드스토리지, 데이터분석, 비정형데이터 저장
특징낮은 오버헤드, 빠른 데이터 전송, OS 무관액세스제어 용이, 속성정보 관리 편이오브젝트별 고유 ID, OS/FS 의존성 없음, 무한 확장성
대표기술SANique, IBM SVC, 스토리지 어레이NFS, GPFS, SNFS, GFSS3, Cloud Storage, Blob Storage

스토리지 가상화 구축시 고려사항

항목고려사항설명
호환성지원 프로토콜 및 솔루션DBMS, HA 솔루션, 백업 장치 지원 가능
FC 프로토콜, iSCSI 프로토콜, CIFS & NFS 지원
가용성/안정성장애 대응 및 데이터 보호Failover 기능 지원 및 데이터 유실 방지
바이러스 및 기타 공격 차단
기능성서비스 연속성 및 확장성무중단 서비스 및 스토리지 추가/제거
디스크 볼륨 할당 및 확장 작업 가능
구축용이성시스템 다운타임 최소화기존 시스템과의 호환성 고려
다운타임 최소화 방안 제시

TIA-942

· 약 3분

TIA-942 개념

  • 미 통신산업협회가 제정한 데이터센터 설계 및 운영에 필요한 최소 요건을 규정한 데이터 센터 인프라의 Defacto 표준
  • 데이터센터 안정성, 신뢰성, 확장성, 보안지침 제공, 데이터센터 품질 평가기준

TIA-942 구성도, 품질등급

TIA-942 구성도

TIA-942 품질등급 개념도

tia-942

TIA-942 품질등급 상세설명

구분Tier1Tier2Tier3Tier4
장애영향비/계획된 액티비티에 대한 사이트 영향 높음비/계획된 액티비티에 대한 사이트 영향 보통계획된 액티비티에 대한 컴퓨팅 HW 운영지장 없음계획된 액티비티에 대한 임계부하 없음
비계획 작업은 영향비계획 액티비티 임계부하 적어도 1번 방어
전력/냉방시설 이중화필요시N+1N+1, 동시 활성화2(N+1), 무정지상태
백본/라우터 이중화없음없음필요필요
적용기간3개월~6개월15~20개월15~20개월
MTTR28.8h22.0h1.6h0.4h
보안시설일반 잠금장치카드인식생체인식생체인식

PIM, Processing In Memory

· 약 2분

PIM 개념

  • 메모리 내부 연산 기능을 추가하여, 데이터 이동 없이 메모리 자체 연산 수행으로 성능 개선 및 에너지 효율을 높이는 메모리 반도체
  • 폰 논이만 구조 한계 극복, 추론 AI 패러다임, 데이터 병목 최소화, 저전력 설계

PIM 개념도, PNM과의 비교, 적용방안

PIM 개념도

pim

PIM, PNM 비교

구분PIMPNM
연산기 위치DRAM 칩 내부DRAM 근처 별도 칩
전송지연없음일부 있음
장점데이터 이동 제거범용성 확보
병렬처리 극대화전력효율성
단점범용성 낮음상대적 낮은 성능
분야추론 AI 등고성능컴퓨팅, 데이터센터

PIM 적용방안

구분내용비고
AI 가속기AI 작업의 대규모 병렬 처리시 활용음성인식, 이미지 처리
빅데이터 분석대량 데이터 실시간 처리 최적화SEM(동시실행모드), EPM(독점실행모드) 등
고성능 컴퓨팅GPU와 협업하여 워크로드 분산MAC 연산 수행

칩렛

· 약 3분

칩렛 개념

  • 여러 개의 작은 칩(다이)을 모듈화하여 하나의 패키지 안에서 상호연결하는 기술
  • 무어의 법칙 한계, 단일 SoC를 나누고 조합하여 유연한 아키텍처 제공, 설계/생산비용 절감

칩렛 개념도, 구현 방법, 장점

칩렛 개념도

chiplet

  • 다이 슬롯 모듈화로 다양항 기능을 가진 이기종 칩을 결합하여 사용 가능

칩렛 구현 방법

구분와이어본딩플립칩 본딩TSV
개념도wire-bondingfilp-chip-bondingthrough silicon via
개념칩과 기판 또는 칩 간 연결을 금속 와이어를 통해 구현하는 전통적인 본딩 방식칩과 기판을 플립(뒤집어) 배치한 후, 범프(땜납)로 연결하는 본딩 방식실리콘 웨이퍼에 수직으로 뚫린 구멍(비아)를 통해 칩 내부 및 칩 간 전기 신호를 연결하는 3D 본딩 방식
특징전기적 신호 전달거리 짧음작은 전기저항, 빠른 속도칩 간 인터커넥션 길이 감소, 빠른 신호전달
전기적 특성 우수작은 폼팩터 구현 가능고용량, 저전력

칩렛 장점

구분측면장점
기술적품질측면칩 분할 생산 통한 수율향상
제조측면바른 설계와 제작 가능
결합측면상이한 이종칩 결합 가능
산업적비용측면제작 및 설계 비용 감소
개발측면핵심 기술 개발 효율
시장측면웨이퍼 칩 설계, 제작 진입장벽 낮춤

SoC, SiP, Chiplet 비교

구분SoCSiPChiplet
구조단일 칩 내 모든 기능 통합여러 다이를 하나의 패키지로 통합개별/기능별 모듈형 칩 통합
유연성낮음중간높음
성능최적화제한적제한적각 기능별 최적화 가능
비용효율성낮음중간높음
개발기간중간짧음

캐시

· 약 5분

캐시 개념

  • CPU와 주기억장치 간의 속도차를 완화시켜 프로세서 대기시간을 최소화를 위한 고속 메모리
  • 캐시 용량이 메인 메모리보다 작아 일부분만 적재되므로 최고의 적중률을 내기 위해 매핑 기법 필요

캐시메모리 매핑 방식

구분직접 사상연관 사상집합 연관 사상
개념도directassociativeset-associative
개념메모리 블록이 캐시의 특정 라인으로만 로딩 가능메모리 블록이 임의의 라인으로 로딩 가능메모리 블록이 특정 집합의 모든 라인에 로딩 가능
장점회로 구현 간단, 처리 속도 향상캐시 적중률 향상캐시:메모리 = N:1로 효율적
단점캐시 실패율 높음회로 복잡, 처리 속도 느림회로 복잡
구조지정된 특정 라인으로 로딩 가능임의의 라인으로 로딩 가능특정 집합의 모든 라인에 로딩 가능

캐시 쓰기 정책

구분Write-ThroughWrite-Back
개념도write-throughwrite-back
개념모든 쓰기 동작들이 캐시와 주기억장치에 동시에 수행되는 방식캐시에서 데이터 변경 후 주기억장치에는 나중에 블록을 복사하여 갱신하는 방식
특징단순, 일관성 보장쓰기동작 최소화, 짧은 쓰기 시간
긴 쓰기 시간, 많은 트래픽일관성 유지 어려움, 블록 교체시 상태 확인 필요
일관성 문제write-throughwrite-back

캐시 일관성 유지 기법

구분기법설명
SW 기법공유 캐시 사용모든 프로세서가 하나의 공유 캐시를 사용
항상 캐시 일관성이 유지
프로세서 간 캐시 액세스 충돌로 성능 저하 초래
공유 변수 캐시 미사용공유변수를 캐시에 저장하지 않는 기법
캐시 저장 불가능 데이터: Lock 변수, 프로세스 큐와 같은 공유 데이터 구조, 입출력 영역에 의해 보호되는 데이터
캐시 적중률 저하 및 I/O 성능 저하 초래
HW 기법디렉토리 프로토콜캐시의 정보 상태(캐시 블록 공유상태, 노드 등)을 주기억장치 디렉토리에 저장하여 일관성을 보장하는 방법
Full Map 디렉토리: 디렉토리에 모든 캐시의 포인터와 데이터 저장
Limited 디렉토리: Full Map 디렉토리의 기억장소 부담 감소
Chained 디렉토리: 캐시 포인터를 linked list로 연결, 기억장소 부담 감소
Passive한 방법이며 다중서버 복잡한 시스템에 적합
스누피 프로토콜멀티 프로세서 내의 모든 캐시 제어기에 캐시 일관성 유지를 위한 정보를 브로드캐스트하는 기법
스누피 제어기: 다른 프로세서에 의한 메모리 액세스 감지 후 상태 조절
쓰기 갱신(Write Update): Write 발생 시 모든 캐시에 갱신된 정보 전송
쓰기 무효(Write Invalidate): Write 발생 시 Invalid 메시지로 브로드캐스팅
MESI 프로토콜: Modified(수정), Exclusive(배타), Shared(2개 이상의 캐시에 공유), Invalid(무효, 다른 캐시가 수정) 4가지 상태로 데이터 유효성 여부 판단
Active한 방법, 소규모 시스템, 높은 버스 대역폭
프로토콜기타 프로토콜MEI, MSI, MOESI, MESIF 프로토콜
O(Owned): 변경 상태의 캐시 블록을 다른 곳에서 읽은 경우
F(Forwarding): 여러 프로세서가 공유한 캐시 블록 접근 시

제어장치, 마이크로프로그램, 하드와이어

· 약 4분

제어장치 개념

  • 프로그램 명령어를 해석하고, 레지스터에 명령실행 제어 신호를 발생시키는 CPU 구성요소
  • 명령어 해독, 제어신호 생성, 제어신호 인가 기능 수행

Micro-programmed 구현방법 개념 및 구성요소

Micro-programmed 개념

Micro-programmed

Micro-programmed 구성요소

구성요소역할설명
IR (Instruction Register)명령어 저장현재 실행 중인 명령어를 저장하고 제어 메모리 주소를 생성하는 데 사용
Address Generator마이크로 명령 주소 생성현재 명령어와 상태를 기반으로 제어 메모리의 다음 주소를 생성
CAR (Control Address Register)제어 메모리 주소 저장제어 메모리에서 접근할 주소를 저장
Control Memory (ROM)마이크로코드 저장제어 신호 생성을 위한 마이크로 명령어들을 저장
CDR (Control Data Register)제어 데이터 저장제어 메모리에서 읽어온 마이크로 명령어를 저장
Control Signals제어 신호마이크로 명령어에 따라 생성된 최종 제어 신호

Hard-wired 구현방법 개념 및 구성요소

Hard-wired 개념

Hard-wired

Hard-wired 구성요소

구성요소역할설명
IR (Instruction Register)명령어 저장현재 실행 중인 명령어를 저장하고 디코더에 전달
Instruction Decoder명령어 해독IR에서 전달받은 명령어를 해독하여 제어 신호 생성을 준비
Control Step Counter클록 기반 스텝 제어클록 신호를 기반으로 명령 실행 단계를 순차적으로 관리
Control Signal Generator제어 신호 생성디코더와 스텝 카운터의 정보를 기반으로 제어 신호를 생성
Flags상태 플래그연산 결과나 상태 정보를 저장하고 제어 신호 생성에 활용

Micro-programmed, Hard-wired 비교

구분Micro-programmedHard-wired
개념제어 메모리에 저장된 마이크로코드를 사용하여 제어 신호를 생성하는 방식고정된 논리 회로를 사용하여 제어 신호를 생성하는 방식
속도느림, SW 처리빠름, HW 회로
비용저가고가
전력소비많음적음
적용방식CISCRISC
오류발생률디버깅 용이, 수정 가능설계 오류 시 수정 어려움

인터럽트

· 약 8분

인터럽트의 개요

인터럽트 개념

  • 컴퓨터 시스템 외부, 내부, SW적 원인으로 CPU에서 처리하던 프로그램을 중단하고 해당 동작을 처리할 수 있도록 보내는 제어신호
  • 인터럽트는 SW/HW 방식으로 우선순위 판별을 통해 인터럽트 서비스 루틴 수행

인터럽트 유형

구분방법설명
SWPolling 방식프로그램을 통해 장치 Flag에 의한 우선순위 검사 방식
HWDaisy-Chain 방식우선순위 높은 장치를 물리적으로 상위에 배치하는 방식
Vector Interrupt 방식고유한 번호를 부여하고 해당 번호에 대응하는 ISR 방식

폴링

폴링 개념

  • SW적으로 CPU가 외부 장치의 상태를 지속적으로 검사하여 인터럽트 요청여부를 확인하는 방식

폴링 동작방식

구분동작 방식설명
초기화 및 확인초기화CPU는 외부 장치와의 통신을 위한 인터럽트 관련 레지스터 및 플래그를 초기화
장치 확인, 상태 확인CPU는 특정 외부 장치(예: 입출력 장치, 타이머 등)의 상태를 주기적으로 확인하기 위해 루프를 실행하며, 루프 내에서 특정 장치에 대한 상태를 확인
인터럽트 여부 판단CPU는 장치의 상태를 확인한 후 인터럽트가 발생했는지 여부를 판단하며, 특정 플래그나 레지스터의 값을 확인하여 인터럽트 여부를 판단
처리인터럽트 처리인터럽트가 발생한 경우, CPU는 해당 인터럽트에 대한 처리를 위해 인터럽트 서비스 루틴을 실행
루프 반복처리가 완료되면 CPU는 다시 루프를 시작하여 다음 인터럽트가 발생했는지를 확인하고 처리

데이지 체인

데이지 체인 개념

  • CPU와 가까운 장치가 우선순위가 높게 처리되고, 하나의 인터럽트가 다음 인터럽트를 호출하는 직렬 연계 방식

데이지 체인 동작방식

구분동작 방식설명
발생 및 우선순위 전달인터럽트 발생 및 신호 전달외부 장치에서 인터럽트가 발생하고, 인터럽트 신호가 체인의 시작점에 있는 인터럽트 컨트롤러에게 전달
우선순위 확인 및 결정체인 내의 각 인터럽트 컨트롤러는 자신의 우선순위를 확인하고, 처리할 인터럽트를 결정
처리 및 전달인터럽트 처리우선순위가 가장 높은 인터럽트 컨트롤러는 해당 인터럽트를 처리하고, 서비스 루틴을 실행
인터럽트 전달처리가 완료된 인터럽트는 다음 인터럽트 컨트롤러로 전달되며, 다음 우선순위가 높은 인터럽트를 처리
완료 및 대기인터럽트 처리 반복처리가 완료되면 다음 인터럽트 컨트롤러로 넘어가며, 이 과정을 반복
우선순위 갱신 및 대기모든 인터럽트가 처리되면 인터럽트 컨트롤러들은 우선순위를 다시 확인하고 새로운 인터럽트를 대기

벡터 인터럽트

벡터 인터럽트 개념

  • 각 인터럽트를 참조하는 인터럽트 벡터 테이블을 관리, 고유 벡터 주소로 서브루틴을 실행하는 방식

벡터 인터럽트 동작방식

구분동작 방식설명
인터럽트 발생 및 동작인터럽트 발생외부 장치에서 인터럽트가 발생
인터럽트 컨트롤러 동작인터럽트 컨트롤러는 발생한 인터럽트를 CPU에 알리고 해당 인터럽트의 번호(인터럽트 벡터)를 제공
확인 및 처리인터럽트 벡터 확인CPU는 인터럽트 컨트롤러로부터 받은 인터럽트 벡터를 이용하여 인터럽트 서비스 루틴의 주소를 확인
인터럽트 서비스 루틴 실행CPU는 찾아낸 인터럽트 서비스 루틴의 주소로 점프하여 해당 인터럽트를 처리
인터럽트 서비스 루틴 종료인터럽트 서비스 루틴의 실행이 완료되었음을 CPU가 인식
복귀프로그램 복귀인터럽트 서비스 루틴 실행 후, CPU는 원래의 프로그램 또는 작업으로 돌아가 수행을 계속 진행

인터럽트 유형 비교

구분폴링데이지체인벡터인터럽트
개념CPU가 주기적으로 장치 상태를 확인하여 인터럽트를 처리하는 방식인터럽트 신호가 장치 간 체인을 따라 전달되며, 우선순위가 높은 장치가 처리되는 방식각 장치가 고유의 인터럽트 벡터를 가지며, 벡터를 통해 해당 장치를 즉시 처리하는 방식
방식SWHWHW
속도느림중간, 체인 길이에 따른 지연빠름, 벡터 주소로 즉시 처리
장점구현 간단, 추가 HW 불필요단일 인터럽트 라인으로 여러 장치 처리 가능빠른 속도, 유연한 우선순위
단순한 시스템에 효율적우선순위 제어 용이복잡한 시스템에서 효율적
단점CPU 자원 소모, 성능 저하체인 길이가 길어질 시 병목 발생구현 복잡, 추가 HW 비용
느린 반응 속도장치 추가 시 체인 구조 변경 필요벡터 테이블 구성/관리 비용

병렬컴퓨팅, 병렬 프로세서

· 약 3분

병렬 컴퓨팅 개념

  • 프로그램 내 계산 영역을 여러 개로 나누어 각 계산을 여러 프로세서에서 동시 수행하는 기술
  • 생성형 AI 발전, GPU 품귀, 단일 프로세서 한계

병렬 컴퓨팅 특징

구분특징설명
목적실행시간 단축Wall clock time 단축
작업 동시 수행HW, SW 측면 작업 분할
유형작업 단위 병렬성다수 독립 작업 프로그램
태스크 단위 병렬성서로 다른 기능 태스크
스레드 단위 병렬성동시 처리 스레드
명령어 단위 병렬성어셈블리 명령어

병렬 프로세서의 분류

Flynn의 분류

SISD

  • 명령어 순차처리
  • 단일 프로세서 시스템

SIMD

  • 하나의 제어 유닛으로 동기화
  • 벡터, 행렬 연산 처리

MISD

  • 프로세서 처리 결과로 연산 수행
  • 실제 구현 불가

MIMD

  • 각 프로세서가 비동기적 처리
  • 강결합시 공유메모리 사용
  • 약결합시 분산메모리와 메시지 패싱 기법 사용

시스템 구성 방법에 따른 분류

SMP

  • 프로그래밍 용이
  • 메모리 접근 병목

MPP

  • 프로그래밍 복잡
  • 낮은 가용성

NUMA

  • 장점 결합
  • 분산 로컬 메모리, 글로벌 메모리 사용
  • 다양한 프로세서 사용 가능