* Microsoft Fabric = SaaS 기반 데이터, 분석 통합 플랫폼
* 기존의 여러 서비스 (예:Power BI, Synapse, Azure Data Factory, Azure Data Lake Storage 등) 을
One Lake + Fabric 경헙으로 통합.
# Fabric 접근 화면.
* 구성요소 :
- OneLake : 데이터 레이크(OneDrive 같은 개념, 조직 저용 데이터 저장소)
- Lakehouse : Data Lake + Data Warehouse 하이브리드 저장소
- Data Engineering : 대규모 데이터 처리 (Spark 기반)
- Data Factory : 데이터 파이프라인 (ETL/ELT)
- Data Science : 모델 학습 / 실험
- Real-time analytics : 실시간 데이터 스트리밍 / 분석
- Power BI : 시각화 및 리포팅
* Azure와의 관계
- Fabric는 Azure 구독에 직접 배포하는 서비스가 아님 -> SaaS라서 Microsoft 365 테넌트에 연결.
하지만 Azure 서비스와 연결 가능:
- Azure SQL, Cosmos DB, Blob Storage 등에서 데이터 가져오기
- Entra ID를 통한 인증/권한 관리
- Purview 와 연동하여 거버넌스 / 보안 강화.
##학습 단계 로드맵##
- 개념 이해
- Microsoft Fabric 공식 Docs 훑어보기
- OneLake, Lakehouse 차이 정리
- 핸즈온 실습
- Fabric 무료 체험 계정 생성
- 간단한 Lakehouse 구축 → CSV 업로드 → Power BI 시각화
- 심화 학습
- Data Factory 파이프라인으로 Azure SQL → OneLake 적재
- Delta Lake 기반의 데이터 레이크 최적화
- Real-time Analytics로 로그 스트리밍 분석
- 엔터프라이즈 시나리오
- 권한 관리 (Entra ID RBAC)
- Purview로 데이터 거버넌스
- Fabric Capacities(F SKU, P SKU) 이해 → 비용 산정
- Azure Landing Zone + Fabric 거버넌스 아키텍처 설계
## 패브릭 운영 거버넌스 정책 ##
핵심 포인트
- 역할(Roles) 정의
- Fabric 관리자: 테넌트, 용량, 보안, 라이선스 총괄
- 연결 & 게이트웨이 관리자: 데이터 소스/게이트웨이 관리
- 작업 영역 & 도메인 관리자: 워크스페이스/도메인 관리
- 배포 그룹 관리자: CI/CD 파이프라인 및 환경 통제
- Power BI/Non-Power BI 개발자: 데이터 모델링·엔지니어링·보고서 개발
- 콘텐츠 배포자: 최종 사용자 대상 배포 및 교육
- 운영 체계
- DEV ↔ PRD 환경 분리 (개발/운영 이원화)
- 배포 파이프라인을 통한 통제된 배포 (PRD 직접 배포 금지)
- 명명 규칙과 권한 정책 표준화
- API 기반 자동화 (워크스페이스, 도메인 생성)
- FinOps
- 비용 가시성 확보: Capacity Metrics App + Azure Cost Management 연동
- 대시보드 운영: 용량(Capacity Unit), Bursting, 도메인별 비용 추적
- 알림/모니터링: 80% 이상 사용률, Throttling 지속 시 알림
- 스케일링 전략: PAYG → 1년 예약 전환 기준 (14.4시간/일 CU 사용 기준)
## 유용한 Fabric API 기능 ##
핵심 포인트
- Capacity 제어 API
- Resume / Suspend / Get (상태 조회)
- 예:
-
POST https://management.azure.com/subscriptions/{subId}/resourceGroups/{rg}/providers/Microsoft.Fabric/capacities/{capacityName}/resume?api-version=2023-11-01
- 인증 방식
- Managed Identity (MSI)
- Service Principal (Key Vault 연동 가능)
- ADF 파이프라인 예시
- Fabric 상태 확인 → Paused 상태면 Resume API 호출
- 일정 대기 후 다시 확인 → Resume 성공 여부 체크
- Pipeline 실행 후 상태 모니터링 (Completed/Failed/Cancelled/Deduped 분기 처리)
- 활용 사례
- 불필요한 비용 절감을 위한 야간 Suspend & 아침 Resume 자동화
- 데이터 파이프라인 완료 후 Capacity 자동 해제
- CI/CD 통합 → Fabric 배포 파이프라인 제어