본문으로 건너뛰기

"pe/ca" 태그로 연결된 23개 게시물개의 게시물이 있습니다.

모든 태그 보기

암달의 법칙

· 약 2분

암달의 법칙 개념

  • 컴퓨터 시스템의 일부를 개선할 때 전체적인 성능향상의 최대 폭이 제한된다는 법칙
  • 병렬 컴퓨팅에서 멀티프로세서 사용시 성능향상의 최대폭이 순차적인 프로그래밍 때문에 제한되는 것을 증명

암달의 법칙 개념도, 구성요소, 활용 예시

암달의 법칙 개념도

암달의 법칙 구성요소

1(1P)PS\frac{1}{(1 - P) - \frac{P}{S}}
  • P = 전체 작업시간의 부분
  • S = 성능 향상
  • 반비례 관계로 최대 성능의 향상폭 제한

암달의 법칙 활용 예시

구분예시내용
설계CPU 설계시 최대 트랜지스터 제한트랜지스터 수를 늘려 단위시간 당 최대 성능향상 지점 파악
-GPU 설계시 FPU, ARU 갯수 조정FPU, ALU의 갯수를 조정하여 병렬 컴퓨팅 최대효과 추적
분석하드웨어 규모산정CPU, 메모리 등 시스템 규모산정시 스케일업 규모 파악
최적화멀티쓰레딩 최적화쓰레드의 수를 증가시켜 병렬 처리의 이점을 극대화하면서 병목 현상 분석

3-상태 버퍼

· 약 3분

3-상태 버퍼의 개념

  • 디지털 회로에서 사용되는 논리게이트의 한 종류로, 일반적인 0과 1의 논리 사태 외에 High Impedance (Z) 상태를 가질 수 있는 버퍼게이트로 고 임피던스 상태에서는 회로에서 연결이 끊어진 것처럼 동작하여, 다른 장치 출력에 영향을 주지 않고 버퍼의 출력을 Floating 상태로 제어
  • 회로 간 전기적 분리가 가능하므로, 여러 장치가 동일한 데이터 버스를 효과적으로 제어 가능

3-상태 버퍼의 구성도, 구성요소, 적용방안

3-상태 버퍼의 구성도

            Enable
|
v
+---------+
Input ---->| |----> Output
| 3-State |
| Buffer |
| |
+---------+

3-상태 버퍼의 구성요소

구분내용비고
입력입력 신호를 받는 단자입력 신호 인입
출력입력 신호를 출력으로 내보내는 단자출력 신호 출력
제어버퍼의 상태를 제어하는 단자High/Low Impedance

3-상태 버퍼의 적용방안

구분내용비고
데이터 버스 제어여러 장치가 공유하는 데이터 버스에 연결하여 특정 시간에만 데이터 전송버스 충돌 방지
메모리 인터페이스메모리 칩 선택 및 데이터 입출력 제어주소 디코더와 함께 사용하여 특정 메모리 칩만 활성화
주변장치 인터페이스주변 장치가 데이터를 보낼 준비가 되었을 때만 버퍼 활성화주변 장치와의 데이터 수신

3-상태 버퍼 고려사항

  • 고임피던스 상태일 때 전류 소모가 적지만, 활성화 상태에서는 전류 소모가 발생할 수 있으므로 전력 관리가 필요

실시간 스케줄링, 우선순위 역전

· 약 3분

Realtime Scheduling의 개념

  • 실시간 스케쥴링은 특정 태스크가 주어진 데드라인 내에 완료되도록 프로세싱을 보장하는 스케줄링 방법
  • 시스템 제약 만족, 예측 가능성, 응답성, Mission Critical 프로세스 처리

우선순위 기반 스케줄링 기법

RM, Rate Monotonic

비율 단조

  • 태스크의 주기가 짧을 수록 높은 우선순위로 스케줄링
  • 스케줄링 예상 가능, 단순 구현, 고정 우선순위, 제한적 CPU 활용, Soft RTOS

EDF, Earliest Deadline First

최단 마감시간 우선

  • 태스크의 데드라인이 가까울 수록 높은 우선순위로 스케줄링
  • 스케줄링 예상 어려움, 높은 CPU 활용, 동적 우선순위, 효율적, Hard RTOS
  • 주기가 짧거나 데드라인이 긴 태스크가 공유 자원을 선점하는 경우 우선순위 역전현상 발생

우선순위 역전현상 개념 및 세부 절차

우선순위 역전현상 개념도

   우선순위
Task1 |
Task2 |
Task3 |
--------------------------------------------> 시간
[ 자원R ]

우선순위 역전현상 세부 절차

순번절차내용
1임계영역 진입Task3은 자원R 사용 위해 진입
2프로세스 선점높은 우선순위의 Task1은 Task3의 임계영역 선점 스케줄링 실행
3임계영역 대기Task3이 진입 중이므로, Task1은 대기
4우선순위 역전중간 우선순위의 Task2가 선점하여 스케줄링, Task1은 계속 대기

우선순위 역전현상 해결방안

우선순위 상속

    우선순위
Task1 |
Task2 |
Task3 |
--------------------------------------------> 시간
[ 자원R ]
  • 임계영역에 진입한 낮은 우선순위 태스크의 우선순위를 진입 대기하는 높은 우선순위 태스크와 동일하게 부여

우선순위 올림

    우선순위
자원 R |
Task1 |
Task2 |
Task3 |
--------------------------------------------> 시간
[ 자원R ]
  • 임계영역 자원R에 가장 높은 우선순위를 부여하고, 임계영역 진입 태스크의 우선순위를 자원의 우선순위로 올림

CPU, GPU, FPGA, ASIC

· 약 3분

컴퓨팅 아키텍처의 개요

  • AI 등 병렬처리와 연산 효율이 필요한 최적화된 칩 수요의 증가로 ASIC 기반의 SoC으로 발전
  • FPGA: 이종병렬성, 설계 유연성
  • ASIC: 최고성능, 효율성

CPU, GPU, FPGA, ASIC 개념 및 특징, 적용분야

CPU, GPU, FPGA, ASIC 개념 및 특징

CPU

  • 복잡한 연산, 순차처리, 범용성

GPU

  • 단순한 연산, 병렬처리, 소숫점 연산 특화/FPU

FPGA

  • 설계 가능한 논리소자, 회로
  • 스위치를 주변으로 CLB가 감싸고 있는 구조
  • 목적별 재구성 가능, 유연성

ASIC

  • 특화 반도체
  • 저전력, 고효율, 대량생산

CPU, GPU, FPGA, ASIC 적용분야

구분분야비고
CPU범용 컴퓨팅웹브라우징, 오피스업무
GPU그래픽 렌더링, 병렬처리게임, 시뮬레이션, 머신 러닝
FPGA맞춤형 H/W디지털 회로 프로그래밍
ASIC특정 작업 최적화, 고성능스마트폰, N/W 장치, AI가속기

FPGA, ASIC 선택시 고려사항

  • 대량생산시 비용 절충점을 고려하여 ASIC 기반 SoC 도입 검토 필요

빅 엔디언, 리틀 엔디언

· 약 3분

빅 엔디언, 리틀 엔디언의 개념

  • 빅 엔디언: 데이터를 메모리에 적재시 메모리 시작 주소에 데이터의 상위 바이트부터 순차 저장하는 방식
  • 리틀 엔디언: 데이터를 메모리에 적재시 메모리 시작 주소에 데이터의 하위 바이트부터 순차 저장하는 방식

빅 엔디언, 리틀 엔디언 개념도, 세부 요소, 적용사례

빅 엔디언, 리틀 엔디언 개념도

빅 엔디언, 리틀 엔디언 세부 요소

구분빅 엔디언리틀 엔디언
저장방식낮은 주소에 MSB부터 저장, 앞쪽부터 스택에 푸쉬낮은 주소에 LSB부터 저장, 뒤쪽부터 스택에 푸쉬
장점우수한 가독성, 디버깅 편의성, 빠른 비교 연산후위 비트만 사용하는 계산 용이, 올림 연산 빠름, 가산기 구현 단순
단점수학 연산 어려움, 타입캐스팅 느림숫자 비교 느림, SW 디버깅 불편
대표회사IBMIntel, AMD

빅 엔디언, 리틀 엔디언 적용사례

구분빅 엔디언리틀 엔디언
N/W 프로토콜TCP/IP 주소 전송N/A
운영체제일부 유닉스 시스템윈도우, 맥, 리눅스
CPU 아키텍처IBM 메인프레임, 모토로라 프로세서x86, ARM 등 대부분 CPU

빅 엔디언, 리틀 엔디언, N/W 측면 고려사항

  • N/W 데이터 전송시 ntohl, htonl 함수를 사용하여 목적지 바이트 순서 변경 필요

리버스프록시, 로드밸런서, 그린 배포, 카나리 배포

· 약 5분

무중단 배포의 개념

  • 유저에게 서비스 중단 없이 새로운 버전의 서비스를 배포하는 것을 목표로 하는 배포 전략
  • 신규 버전 배포시 리스크 최소화, 빠른 롤백, 클라우드 컴퓨팅, 가상화 기술 발전으로 무중단 배포 활용

그린 배포, 카나리 배포의 개념도, 핵심 요소, 세부 절차

그린 배포, 카나리 배포의 개념도

  • 신버전을 모두 배포하고 트래픽을 일괄 전환하여 배포
  • 신버전에 점진적으로 트래픽을 늘려 위험을 감지하고 대응하여 배포

그린 배포, 카나리 배포 핵심요소 비교

구분그린카나리
목적신규버전 트래픽 일괄 전환신규버전 점진적 배포
리스크모든 사용자가 신규버전 즉시 사용리스크 최소화
복잡도일괄전환으로 간단비율 조정으로 복잡
테스트 범위모든 사용자가 새 버전 테스트초기 소규모 사용자만 테스트
배포 시간단시간상대적 장시간

그린 배포, 카나리 배포 세부 절차

구분그린카나리
준비단계신규버전 배포, 테스트카나리 환경 준비 초기 테스트
배포 방식전체 트래픽 일괄 전환소규모 트래픽에서 점진적 전환
모니터링전환 후 트래픽 모니터링점진적 모니터링 오류확인
롤백문제시 전체 롤백필요시 특정 비율 롤백

리버스 프록시와 로드밸런서 비교

리버스 프록시, 로드밸런서 개념도

  • 클라이언트 요청을 내부 서버로 전달하고 서버의 응답을 반환하는 중계 서버
  • 리버스 프록시는 L7 로드밸런서의 기능도 일부 수행
  • 트래픽을 여러 서버에 분산하여 부하를 관리하는 장치 또는 SW

로드밸런서의 구성요소

구분요소내용
유형L4 로드밸런서네트워크 계층이나 전송계층 정보로 부하 분산
-L7 로드밸런서응용 계층에서 헤더, 쿠키 등 요청 기반 정보로 부하 분산
알고리즘Round Robin순차, 순환, 응답시간 빠르고 구성이 간편
-Least Connection백엔드 서버 중 활성화 된 연결 계산, 가장 적은 커넥션을 가진 서버로 로드 밸런싱
-Response Time가장 빠른 응답 시간을 제공하는 서버로 로드 밸런싱
-HashingTCP/UDP 연결시 각 클라이언트에 대한 해시 생성하여 동일 서버 연결, 세션 유지 가능

스프링 부트

· 약 3분

스프링부트의 개념

  • 스프링 프레임워크를 기반으로 하여 쉽게 독립 실행형 어플리케이션을 만들 수 있도록 도와주는 오픈소스 프레임워크
  • 스프링 프레임워크의 복잡한 설정과 구성 문제를 해결하기 위해 등장

스프링부트의 구성도, 구성요소, 비교

스프링부트의 구성도

스프링부트의 구성요소

구분내용비고
내장톰캣서버스프링부트 자체 웹서버독립 실행 가능
컨트롤러사용자 요청 처리, 비지니스 로직 응답 반환RestController 등
서비스레이어비지니스 로직을 처리하는 계층DB연동, 트랜잭션 관리
레파지토리DB 접근하여 CRUD 작업 수행JpaRepository 등
모델데이터 구조를 정의하는 클래스Entity, DTO
  • Spring Starter, Auto Configurator 등 스프링부트 모듈을 활용하여 쉽게 기본 구성 사용 가능

스프링 프레임워크와 스프링부트 비교

구분스프링 프레임워크스프링 부트
설정방식수동설정, XML, Properties 등최소설정, 자동설정
의존성 관리직접 의존성 명시, 관리스타터를 통한 의존성 그룹화, 자동 관리
내장서버없음있음
목적엔터프라이즈 앱 개발 등REST API 개발 등

스프링부트 사용시 고려사항

  • 많은 어노테이션과 추상화된 설정과 라이브러리를 사용해야하므로, 개발자 숙련도를 고려하여 기능 선택 필요

VM, Container, 가상머신, 컨테이너

· 약 3분

가상화의 개념

  • 물리적인 자원들을 논리적으로 표현해 효율적으로 사용하고 관리하기 위한 기술
  • 클라우드 전환으로 자원활용률, 보안성, 확장성 높은 가상화 기술로 서버 제공, 논리적 투명성으로 사용자는 물리적 자원의 세부사항 미고려

VM, Container의 개념도, 핵심요소, 적용방안

VM, Container 개념도

  • VM: 하이퍼바이저를 통해 물리자원을 추상화한 Guest OS기반 가상화
  • Container: Host OS 커널 통해 격리된 컨테이너를 제공하는 가상화

VM, Container 핵심요소 비교

구분VMContainer
핵심기술하이퍼바이저, VM스냅샷컨테이너, 네임스페이스, CGROUP
환경다양한 OS지원, 독점적 자원할당단일 OS지원, 호스트OS커널 공유
장점강한 보안성, 장애 격리, 다양한 OS 실행빠른 부트시간, 이미지 경량화, 자원사용 효율성
단점높은 자원 소모, OS 라이센스 비용커널 공유로 인한 낮은 보안성, 호스트OS 종속성

VM, Container 적용방안

구분VMContainer
보안 및 격리높은 보안성과 격리성이 필요한 경우프로세스 수준 격리와 빠른 복구가 필요한 경우
CI/CDDevOps환경에서 다양한 운영체제 테스트 시나리오 자동화IaC 기반, GitOps의 지속적 통합, 배포
적합 환경기존, 레거시, 모놀리스클라우드 네이티브

가상화시 고려사항

  • 이미지, 스냅샷 레지스트리 관리와 보안 스캐닝을 통해 취약점 사전 조치 필요

웹 기반 서비스 성능관리, 웹 최적화

· 약 3분

웹 최적화의 개념

  • 웹 페이지의 로딩 속도, 응답속도 등 전반적인 성능을 향상시켜 사용자 경험을 개선하는 활동
  • 페이지 로드가 길어지면 이탈률 증가, SEO 지표 증가로 검색 우선순위 개선, 대역폭 사용 감소로 비용 절감

웹 성능 저하요인의 개념도, 세부요인, 해결방안

웹 성능 저하요인의 개념도

웹 성능 저하 세부요인

구분요인비고
브라우저렌더링 최적화 미흡, 많은 자바스크립트 로드렌더링 차단 리소스, 불필요한 JS로드
네트워크많은 리소스 요청, 대역폭 부족대용량 파일, 압축되지 않은 파일, 느린 N/W 속도
서버서버 처리능력 부족, DB 처리능력 부족H/W 성능 부족, 서버 과부하

웹 성능 최적화 방안

원인해결방안비고
대용량 파일이미지 최적화, 압축리사이즈, WebP 압축
많은 HTTP 요청요청 횟수 절감, 병렬처리HTTP2, 이미지스프라이팅
느린 N/W 속도사용자와 가까운 곳에 리소스 배치CDN 사용
느린 서버 응답하드웨어 개선, 튜닝, 부하 분산스케일업, 쿼리 튜닝, 샤딩
렌더링 차단 리소스JS 실행 시간 단축비동기처리, 트리쉐이킹

웹 최적화시 고려사항

  • Page Speed 등 웹 성능 측정도구를 활용하여 최적화 전/후 성능 비교 필요

메모리 인터리빙

· 약 3분

메모리 인터리빙의 개념

  • 메모리 접근시간을 최소화하기 위해 메모리를 복수개의 모듈로 나누고, 각 모듈에 연속적인 주소를 부여하여 동시에 접근이 가능하게 하는 기법
  • 버스의 경합이나 기억장치의 충돌 회피 가능

메모리 인터리빙의 개념도, 유형, 액세스방식

메모리 인터리빙의 개념도

  • 뱅크0 접근, 뱅크0 읽기 및 뱅크1 접근 순으로 병렬 접근

메모리 인터리빙의 유형

구분개념도내용
상위 인터리빙-주소의 상위비트로 모듈 선택, 순차적, 에러시 하나의 모듈 영향
하위 인터리빙-주소의 하위비트로 모듈 선택, 다수의 모듈 동시 접근, 에러 전파
혼합 인터리빙-모듈을 뱅크로 그룹화, 뱅크 선택시 상위 인터리빙, 뱅크 내 모듈 선택시 하위 인터리빙

인터리빙의 액세스 방식

구분개념도내용
C-Access, 순차접근-주소가 버스를 통해 순차적으로 모듈에 도착, 버스 경합 발생가능
S-Access, 병렬접근-읽기 동시 진행, 데이터 순차 전송하여 동시성 확보로 높은 성능, DDR DRAM 적용

인터리빙 고려사항

  • 메모리 접근 패턴, 시스템 성능 요구사항, 비용, 복잡도 등을 고려하여 최적의 인터리빙 방식 선택