🔹 BERT란? BERT(Bidirectional Encoder Representations from Transformers)는✅ Google이 개발한 최신 자연어 처리(NLP) 모델이에요. ✅ 문장의 앞뒤를 모두 참고하는 "양방향(Bidirectional)" 모델!…
🔹 LSTM이란? LSTM(Long Short-Term Memory, 장기 기억 신경망)은 RNN의 한 종류로,기억력이 짧은 RNN의 단점을 개선한 모델이에요! ✅ RNN은 연속된 데이터를…
🔹 RNN(순환 신경망, Recurrent Neural Network)이란? RNN은 시퀀스 데이터(시간에 따라 변하는 데이터)를 처리하는 인공 신경망입니다.✅ 기존의 신경망과 달리, 이전 단계의…
CNN(합성곱 신경망, Convolutional Neural Network)은 이미지나 영상 데이터를 처리하는 데 특화된 딥러닝 알고리즘입니다. 인간의 시각 시스템을 모방하여 패턴을 자동으로 학습하며,…
1. Pretraining 개요 Pretraining(사전 훈련) 은 대량의 텍스트 데이터를 기반으로 모델이 언어 패턴을 학습하는 초기 단계입니다. 이 과정에서 모델은 특정…
Hugging Face는 자연어 처리(NLP) 및 머신러닝 모델을 위한 오픈소스 플랫폼이자 AI 커뮤니티입니다. 주로 트랜스포머(Transformers) 라이브러리로 유명하며, BERT, GPT, T5, LLaMA…
1. NO_UNNEST 힌트란? NO_UNNEST 힌트는 서브쿼리(Subquery)의 변환(UNNESTING) 최적화를 방지하는 데 사용됩니다. NEST의 사전적 의미는 무언가를 "포개다, 겹치다"의 의미로 중첩을 의미합니다.…
1. 키 보존 테이블이란? 키 보존 테이블(Key-Preserved Table) 은 View(뷰)에서 특정 테이블의 기본 키(Primary Key)가 유지되는 테이블을 의미합니다. (뷰에 rowid를…
1. Lock Escalation 개요 Lock Escalation(락 에스컬레이션) 은 데이터베이스에서 트랜잭션이 획득한 잠금(Lock)의 범위가 증가하여 더 큰 범위를 잠그는 과정을 의미합니다.즉,…
Oracle의 Write-Ahead Logging (WAL) Oracle에서는 Write-Ahead Logging (WAL) 개념이 Redo Log와 Undo Log를 통해 구현됩니다. WAL은 데이터를 디스크의 데이터 파일에…