Search

Session

ꡐ윑 μ„Έμ…˜

μΈμ‚¬μ΄νŠΈλŠ” 총 10회의 κ΅μœ‘μ„Έμ…˜(OT 포함)을 톡해 μ‹ μž… 기수의 μ†Œν”„νŠΈλžœλ”©μ„ 도λͺ¨ν•˜κ³ , ν•™νšŒμ›λ“€μ˜ 체계적인 데이터 뢄석 및 λͺ¨λΈλ§μ„ μœ„ν•œ 기초λ₯Ό λ‹€μ§€κ³  μžˆμŠ΅λ‹ˆλ‹€.

ꡐ윑 μ„Έμ…˜ [파이썬]

ν•™κΈ° μ΄ˆμ—λŠ” Github의 μ‚¬μš©λ²•κ³Ό Python을 ν•™μŠ΅ν•©λ‹ˆλ‹€. Pandasλ₯Ό μœ„μ£Όλ‘œ Python의 κΈ°μ΄ˆλΆ€ν„° μ‹¬ν™”κΉŒμ§€, 그리고 EDA에 ν•„μš”ν•œ 데이터 μ „μ²˜λ¦¬ 및 μ‹œκ°ν™”λ₯Ό 3번의 μ„Έμ…˜μ— 걸쳐 ν•™μŠ΅ν•©λ‹ˆλ‹€.

Session 0 (OT). Jupyter, Github, VScode

λ³Έ μ„Έμ…˜μ€ 본격적인 ꡐ윑 μ„Έμ…˜ 진행에 μ•žμ„  사전 ν•™μŠ΅ 과정에 ν•΄λ‹Ήν•©λ‹ˆλ‹€. Jupyter Notebookκ³Ό VScodeλ₯Ό μ„€μΉ˜ν•˜κ³  파이썬 개발 ν™˜κ²½ 초기 섀정을 μ§„ν–‰ν•˜μ˜€μŠ΅λ‹ˆλ‹€. λ˜ν•œ, 과제 제좜 및 포트폴리였 관리λ₯Ό μœ„ν•œ Github ν™œμš© 방법에 λŒ€ν•΄ ν•™μŠ΅ν•˜μ˜€μŠ΅λ‹ˆλ‹€.

Session 1. Pandas

λ³Έ μ„Έμ…˜μ—μ„œλŠ” 기본적인 파이썬 문법을 λ³΅μŠ΅ν•˜κ³ , Pandas 문법을 μ‹€μ œ 데이터에 μ μš©ν•΄ λ³΄μ•˜μŠ΅λ‹ˆλ‹€.

Session 2. EDA & μ „μ²˜λ¦¬

λ³Έ μ„Έμ…˜μ—μ„œλŠ” 데이터λ₯Ό λΆ„μ„ν•˜κ³  μ΄ν•΄ν•˜κΈ° μœ„ν•œ EDA와 μ „μ²˜λ¦¬ 과정에 λŒ€ν•΄ μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€. λ˜ν•œ 데이터λ₯Ό μ½λŠ” 방식과 μ‹œκ°ν™”μ˜ 기초적인 λ‚΄μš©μ„ ν•™μŠ΅ν•˜κ³ , EDA의 λŒ€μƒκ³Ό μ’…λ₯˜μ— λ”°λ₯Έ EDA μœ ν˜•μ„ νŒŒμ•…ν•˜μ˜€μŠ΅λ‹ˆλ‹€. λͺ¨λΈλ§μ„ μœ„ν•΄ 데이터λ₯Ό μ†μ§ˆν•˜λŠ” μ „μΉ˜λ¦¬ 과정을 μ΄ν•΄ν•˜κ³ , νŒŒμ΄μ¬μ„ 톡해 μ „μ²˜λ¦¬μ™€ μ‹œκ°ν™” 과정을 μ‹€μŠ΅ν•˜μ˜€μŠ΅λ‹ˆλ‹€.

ꡐ윑 μ„Έμ…˜ [톡계]

파이썬 ꡐ윑 μ„Έμ…˜ 이후, 총 4회의 톡계 μ„Έμ…˜(톡계, νšŒκ·€, λΆ„λ₯˜)을 톡해 데이터 λΆ„μ„μ˜ 기반이 λ˜λŠ” 기초적인 톡계 κ°œλ…κ³Ό λ¨Έμ‹ λŸ¬λ‹(νšŒκ·€, λΆ„λ₯˜)의 이둠적 κΈ°λ°˜μ„ ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€.

Session 3. 톡계

λ³Έ μ„Έμ…˜μ—μ„œλŠ” 기술 톡계와 좔리 톡계, λ‹€μ–‘ν•œ 뢄포듀과 κ°€μ„€ κ²€μ •μ˜ 절차 및 해석 λ“± 톡계와 κ΄€λ ¨λœ λ‹€μ–‘ν•œ 이둠적 κΈ°λ°˜μ— λŒ€ν•΄ ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€.

Session 4. νšŒκ·€ 기초

λ³Έ μ„Έμ…˜μ—μ„œλŠ” λ‹¨μˆœ μ„ ν˜• νšŒκ·€, 닀쀑 μ„ ν˜• νšŒκ·€μ˜ 이둠적 κΈ°λ°˜μ— λŒ€ν•΄ ν•™μŠ΅ν•˜κ³  μ‹€μŠ΅ν•΄λ³΄λŠ” μ‹œκ°„μ„ κ°€μ‘ŒμŠ΅λ‹ˆλ‹€.

Session 5. νšŒκ·€ 심화

λ³Έ μ„Έμ…˜μ—μ„œλŠ” 닀쀑 μ„ ν˜• νšŒκ·€μ˜ κΈ°λ³Έ 가정을 κ²€μ •ν•΄ 보고 νšŒκ·€ λΆ„μ„μ˜ 평가 방법에 λŒ€ν•΄ μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€. 그리고 λΉ„μ„ ν˜• νšŒκ·€ λͺ¨λΈμ„ ν•™μŠ΅ν•œ λ’€ μ‹€μ œ 데이터에 μ μš©ν•΄ λ³΄μ•˜μŠ΅λ‹ˆλ‹€.

Session 6. λΆ„λ₯˜

λΆ„λ₯˜μ˜ κ°œλ…, μ’…λ₯˜, 평가 μ§€ν‘œμ— λŒ€ν•΄ μ΄ν•΄ν•˜κ³  ν•˜μ΄νΌνŒŒλΌλ―Έν„° μ΅œμ ν™”λ₯Ό ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€. 그리고 μ½”λ“œλ₯Ό 톡해 λΆ„λ₯˜ λͺ¨λΈμ„ κ΅¬ν˜„ν•˜κ³  평가해 λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
μ–΄λ–€ ν•˜μ΄νΌνŒŒλΌλ―Έν„°(Hyperparameters)λ₯Ό μ„€μ •ν•˜λŠλƒμ— 따라 λͺ¨λΈ μ„±λŠ₯(Score)κ°€ 달라진닀.

Session 7. κ΅°μ§‘ν™”

κ΅°μ§‘ν™”μ˜ λͺ©ν‘œμ™€ νŠΉμ§•μ„ μ‚΄νŽ΄λ³΄κ³  계측적 ꡰ집화와 비계측적 κ΅°μ§‘ν™”μ˜ ꡬ뢄에 λŒ€ν•΄ ν•™μŠ΅ν•˜μ˜€μŠ΅λ‹ˆλ‹€.
계측적 ꡰ집화와 비계측적 κ΅°μ§‘ν™”μ˜ κ°œλ…κ³Ό 뢄석 방법에 λŒ€ν•΄ ꡬ체적으둜 μ‚΄νŽ΄λ³΄κ³  각 ꡰ집화에 μ†ν•˜λŠ” κ΅°μ§‘ν™” 방법둠을 κ³΅λΆ€ν–ˆμŠ΅λ‹ˆλ‹€.
계측적 κ΅°μ§‘ν™”
비계측적 κ΅°μ§‘ν™”
방법둠
응집법, 뢄할법
K-means, GMM, DBSCAN
μž₯점
데이터가 수의 적은 경우 μ•ˆμ •μ μœΌλ‘œ μ‚¬μš©
κ³„μ†μ μœΌλ‘œ ꡰ집을 μž¬κ΅¬μ„±&ν• λ‹Ή λ°μ΄ν„°μ˜ μˆ˜κ°€ λ§Žμ„ 경우 유용
단점
ν•œ 번 ν˜•μ„±λœ ꡰ집은 λ‹€μ‹œ νŒλ³„ν•˜μ§€ μ•ŠμŒ
초기 κ΅°μ§‘μ˜ 영ν–₯을 크게 λ°›μ•„ λΆˆμ•ˆμ •ν•œ ꡰ집을 μ œκ³΅ν•  κ°€λŠ₯μ„±
κ΅°μ§‘ν™” μ•Œκ³ λ¦¬μ¦˜μ˜ 평가 방법에 λŒ€ν•΄ μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€. μ™ΈλΆ€ν‰κ°€λŠ” 이미 μ •ν•΄μ§„ 정닡을 κΈ°μ€€μœΌλ‘œ κ΅°μ§‘ν™” μ•Œκ³ λ¦¬μ¦˜μ˜ 정확도λ₯Ό μΈ‘μ •ν•˜λŠ” λ°©μ‹μœΌλ‘œ, μ•Œκ³ λ¦¬μ¦˜μ˜ μ„±λŠ₯을 κ²€μ¦ν•˜λŠ” 데 μ‚¬μš©λ˜λŠ” 반면, λ‚΄λΆ€ν‰κ°€λŠ” μ •λ‹΅ 없이 κ΅°μ§‘ λ‚΄ λ°μ΄ν„°μ˜ 응집성과 κ΅°μ§‘ κ°„μ˜ 뢄리도λ₯Ό ν‰κ°€ν•˜λŠ” λ°©μ‹μœΌλ‘œ, 주둜 Dunn Indexλ‚˜ Silhouette κ³„μˆ˜μ™€ 같은 μ§€ν‘œλ₯Ό 톡해 μ΄λ€„μ§„λ‹€λŠ” 점을 μ‚΄νŽ΄λ³΄μ•˜μŠ΅λ‹ˆλ‹€.

Session 8. μΆ”μ²œ μ‹œμŠ€ν…œ + μ—°κ΄€ 뢄석 기초

μΆ”μ²œ μ‹œμŠ€ν…œμ˜ κ°œλ…κ³Ό λΆ„λ₯˜λ₯Ό ν•™μŠ΅ν•˜λ©° μ½˜ν…μΈ  기반 필터링과 λͺ¨λΈ 기반 ν˜‘μ—… ν•„ν„°λ§μ˜ κ°œλ…μ„ μ΄ν•΄ν•˜κ³ , Python μ½”λ“œλ‘œ κ΅¬ν˜„ν•˜λŠ” 방법을 μ΅ν˜”μŠ΅λ‹ˆλ‹€.
지지도, 신뒰도, ν–₯μƒλ„μ˜ κ°œλ…μ„ μ΄ν•΄ν•˜κ³  μ‹€μ œ μ „λž΅ μˆ˜λ¦½μ— μ–΄λ–€ λ°©μ‹μœΌλ‘œ ν™œμš© κ°€λŠ₯ν•œμ§€ μ•Œ 수 μžˆμŠ΅λ‹ˆλ‹€. Apriori / FP Growth μ•Œκ³ λ¦¬μ¦˜ ν”„λ‘œμ„ΈμŠ€λ₯Ό μ΄ν•΄ν•˜κ³ , Python μ½”λ“œλ‘œ κ΅¬ν˜„ν•˜λŠ” 방법을 읡힐 수 μžˆμ—ˆμŠ΅λ‹ˆλ‹€.

Session 9. λ°μ΄ν„°λ‘œ λ³΄λŠ” λΉ„μ¦ˆλ‹ˆμŠ€ 상황

데이터λ₯Ό 톡해 λΉ„μ¦ˆλ‹ˆμŠ€ 상황을 μ΄ν•΄ν•˜λŠ” 것을 λͺ©ν‘œλ‘œ ν•˜μ˜€μŠ΅λ‹ˆλ‹€. Data-Driven Decision Making에 λŒ€ν•΄ μ΄ν•΄ν•˜λ©°, μ‹€μŠ΅μ„ 톡해 AARRR ν”„λ ˆμž„μ›Œν¬λ₯Ό μ‚¬μš©ν•΄ λ³΄μ•˜μŠ΅λ‹ˆλ‹€.

심화 μ„Έμ…˜

ꡐ윑 μ„Έμ…˜μ„ 마친 ν›„μ—λŠ” 총 9회의 심화 μ„Έμ…˜μ„ μ§„ν–‰ν–ˆμŠ΅λ‹ˆλ‹€. 데이터 μ‚¬μ΄μ–ΈμŠ€ 심화 주제 쀑 관심 뢄야에 따라 νŒ€μ„ κ΅¬μ„±ν•˜μ˜€κ³ , 각 νŒ€μ€ ν•™μŠ΅ μžλ£Œμ™€ μ‹€μŠ΅ 과제λ₯Ό μ œμž‘ν•˜μ—¬ μ£Ό 2회 μ •κ·œ μ„Έμ…˜μ„ μ§„ν–‰ν–ˆμŠ΅λ‹ˆλ‹€.

Session 1. 앙상블&AI 기초

λ³Έ μ„Έμ…˜μ—μ„œλŠ” μ—¬λŸ¬ 개의 κ°œλ³„ λΆ„λ₯˜ λͺ¨λΈλ“€μ„ κ²°ν•©ν•΄ ν•˜λ‚˜μ˜ λΆ„λ₯˜ λͺ¨λΈλ³΄λ‹€ 더 쒋은 μ„±λŠ₯을 λ‚΄λŠ” 앙상블에 λŒ€ν•΄ κ³΅λΆ€ν–ˆμŠ΅λ‹ˆλ‹€. μ’…λ₯˜μ— 따라 λ³΄νŒ…(Voting), λ°°κΉ…(Bagging), λΆ€μŠ€νŒ…(Boosting), μŠ€νƒœν‚Ή(Stacking)을 κ΅¬λΆ„ν•˜μ˜€κ³ , Random Forest, XGBoost, LightGBM λ“±μ˜ λͺ¨λΈλ“€μ— λŒ€ν•΄ μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
앙상블 ꡬ쑰도
랜덀 포레슀트의 ν”„λ‘œμ„ΈμŠ€
LightGBM μ•Œκ³ λ¦¬μ¦˜ μ†Œκ°œ
μŠ€νƒœν‚Ή μ•Œκ³ λ¦¬μ¦˜μ„ μ•Œμ•„λ³΄κ³ , K ν΄λ“œ ꡐ차 검증을 톡해 ν•™μŠ΅κ³Ό 검증을 반볡적으둜 μˆ˜ν–‰ν•˜λŠ” 법을 μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
μŠ€νƒœν‚Ή μ•Œκ³ λ¦¬μ¦˜
K ν΄λ“œ ꡐ차검증
앙상블을 ν¬ν•¨ν•œ λ³΅μž‘ν•œ λͺ¨λΈμ˜ ꡬ쑰적인 ν•œκ³„μΈ λΈ”λž™λ°•μŠ€ λ¬Έμ œμ™€, 이λ₯Ό ν•΄κ²°ν•˜κΈ° μœ„ν•œ LIME μ•Œκ³ λ¦¬μ¦˜μ— λŒ€ν•΄ μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
LIME μ•Œκ³ λ¦¬μ¦˜μ„ ν†΅ν•œ λΈ”λž™λ°•μŠ€ 해석 ν”„λ‘œμ„ΈμŠ€
λ°μ΄ν„°μ—μ„œ 슀슀둜 νŠΉμ§•μ„ μΆ”μΆœν•˜λŠ” λ”₯λŸ¬λ‹μ˜ 핡심 원리λ₯Ό λ°”νƒ•μœΌλ‘œ, CNNκ³Ό RNN/Transformer 기술이 λ°œμ „ν•΄ 온 역사적 과정을 ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€. 특히 BERT와 GPT둜 λŒ€ν‘œλ˜λŠ” μ–Έμ–΄ λͺ¨λΈμ˜ μ§„ν™”μ—μ„œ λ‚˜μ•„κ°€, μΆ”λ‘ κ³Ό ν–‰λ™κΉŒμ§€ μˆ˜ν–‰ν•˜λŠ” Agent AI와 λ©€ν‹°λͺ¨λ‹¬ 기술 λ“± μ΅œμ‹  AI μƒνƒœκ³„μ˜ μ „λ°˜μ μΈ 흐름을 μ΅ν˜”μŠ΅λ‹ˆλ‹€.
ν•­λͺ©
λ¨Έμ‹ λŸ¬λ‹ (Machine Learning)
λ”₯λŸ¬λ‹ (Deep Learning)
포함 관계
인곡지λŠ₯의 ν•œ λΆ„μ•Ό
λ¨Έμ‹ λŸ¬λ‹μ˜ ν•˜μœ„ λΆ„μ•Ό
핡심 기술
λ‹€μ–‘ν•œ μ•Œκ³ λ¦¬μ¦˜ (μ˜μ‚¬κ²°μ • λ‚˜λ¬΄, SVM, K-NN λ“±)
심측 신경망 (Deep Neural Network)
νŠΉμ§• μΆ”μΆœ
μ‚¬λžŒμ΄ 직접 νŠΉμ§•μ„ μ •μ˜ν•˜κ³  μΆ”μΆœ (μˆ˜λ™)
λ°μ΄ν„°μ—μ„œ νŠΉμ§•μ„ 슀슀둜 ν•™μŠ΅ν•˜κ³  μΆ”μΆœ (μžλ™)
데이터 μ–‘
μƒλŒ€μ μœΌλ‘œ 적은 λ°μ΄ν„°λ‘œλ„ ν•™μŠ΅ κ°€λŠ₯
λŒ€λŸ‰μ˜ 데이터가 ν•„μš”ν•˜λ©°, λ§Žμ„μˆ˜λ‘ μ„±λŠ₯ ν–₯상
μ„±λŠ₯ 곑선
데이터가 적을 λ•Œ 효율적
데이터가 λ§Žμ„μˆ˜λ‘ 높은 μ„±λŠ₯ 발휘
μ£Όμš” ν™œμš©
수치 예츑, λΆ„λ₯˜(λ‹¨μˆœ νŒ¨ν„΄), 슀팸 메일 λΆ„λ₯˜ λ“±
μ΄λ―Έμ§€Β·μŒμ„±Β·μžμ—°μ–΄ 처리, μ–Όκ΅΄ 인식, μŒμ„± λΉ„μ„œ λ“±

Session 2~4. λ”₯λŸ¬λ‹

인곡지λŠ₯(AI), λ¨Έμ‹ λŸ¬λ‹, λ”₯λŸ¬λ‹μ˜ κ°œλ…μ„ μ‚΄ν”Όκ³  λΉ„μ •ν˜• 데이터에 λŒ€ν•΄ μžκ°€ν•™μŠ΅ ν•˜λŠ” λ”₯λŸ¬λ‹μ— λŒ€ν•΄ κ³΅λΆ€ν–ˆμŠ΅λ‹ˆλ‹€. 인곡신경망(Artificial Neural Network, ANN) λͺ¨λΈ λ‚΄ μ˜μ‚¬κ²°μ • 원리λ₯Ό μ‚΄ν”Όκ³  νΌμ…‰νŠΈλ‘ μ˜ ꡬ쑰와 닀측화와 μ‹ κ²½λ§μœΌλ‘œμ˜ μ—°κ²°, ꡬ체적인 신경망 ν•™μŠ΅ λͺ¨λΈμ„ λ‹€λ£¨μ—ˆμŠ΅λ‹ˆλ‹€
ν•©μ„±κ³± 신경망(CNN) λͺ¨λΈμ˜ μž‘λ™ 원리와 λŒ€ν‘œμ μΈ CNN μ•„ν‚€ν…μ²˜λ₯Ό μ‚΄νŽ΄λ³΄κ³  이미지 λ”₯λŸ¬λ‹ μ‘μš© 방법을 μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
순차 λ°μ΄ν„°μ˜ νŠΉμ„±μ„ μ΄ν•΄ν•˜λ©°, 순차 데이터λ₯Ό 닀루기 μœ„ν•΄ λ“±μž₯ν•œ RNN, LSTM, GRU, Seq2Seq의 ꡬ쑰와 원리, ν•œκ³„λ₯Ό μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
RNN / LSTM의 ν•œκ³„μ— λ”°λ₯Έ Attention의 λ“±μž₯ 배경을 μ•Œμ•„λ³΄λ©° 트랜슀포머의 ꡬ쑰와 Multi-Head Attention이 μ–΄λ–»κ²Œ λ™μž‘ν•˜λŠ”μ§€ μ΄ν•΄ν•˜μ˜€μŠ΅λ‹ˆλ‹€.
β€˜Attention is All You Need(2017)’ 논문을 기반으둜 트랜슀포머의 μ•„ν‚€ν…μ²˜μ— λŒ€ν•΄ μ΄ν•΄ν•˜μ˜€μŠ΅λ‹ˆλ‹€.

Session 5. μ–Έμ–΄ λͺ¨λΈ&생성 λͺ¨λΈ

톡계적 μ–Έμ–΄ λͺ¨λΈ(SLM)의 기반이 λ˜λŠ” 뢄포 가섀에 λŒ€ν•΄ ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€. SLM에 μ†ν•˜λŠ” N-GRAMκ³Ό Perplexityλ₯Ό μ΄ν•΄ν•˜λŠ” 데 ν•„μš”ν•œ μˆ˜μ‹κ³Ό μž‘λ™ 원리에 λŒ€ν•΄ μ‚΄νŽ΄λ³Έ ν›„, λ”₯λŸ¬λ‹ 기반 μ–Έμ–΄ λͺ¨λΈμΈ LLM의 μž‘λ™ 방식과 μ‚¬μš© 사둀λ₯Ό ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€.
μ—°μ†λœ n개의 단어 λ¬ΆμŒμ„ μ˜λ―Έν•˜λŠ” N-Gram
Perplexity의 μ •μ˜μ™€ μˆ˜μ‹
μ–Έμ–΄ λͺ¨λΈ 관계도
트랜슀포머λ₯Ό ν™œμš©ν•œ 인코더, 디코더 기반의 λͺ¨λΈμΈ BERT와 GPTλ₯Ό κ΅¬λΆ„ν•˜μ—¬ ν•™μŠ΅ν•˜μ˜€μŠ΅λ‹ˆλ‹€.
BERT λͺ¨λΈμ—μ„œμ˜ self-Attention
GPT-1의 μ•„ν‚€ν…μ²˜
LLM의 ν•œκ³„μΈ ν™˜κ° 문제 극볡을 μœ„ν•΄ μ™ΈλΆ€ 지식 베이슀λ₯Ό μ—°κ²°ν•΄ λͺ¨λΈμ˜ μ„±λŠ₯을 λ†’μ΄λŠ” RAG와, λͺ¨λΈμ΄ λ¬Έμ„œμ˜ 신뒰도λ₯Ό 슀슀둜 νŒλ‹¨ν•˜κ³  ν™œμš©ν•˜λ„λ‘ ν›ˆλ ¨ν•˜λŠ” CAG에 λŒ€ν•΄ ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€. LLM을 ν™œμš©ν•˜λŠ” 개발 ν”„λ ˆμž„μ›Œν¬μΈ λž­μ²΄μΈμ— λŒ€ν•΄μ„œ μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€. λ³΅μž‘ν•œ 둜직 κ΅¬ν˜„μ΄ μ–΄λ €μš΄ 랭체인의 ν•œκ³„λ₯Ό κ·Ήλ³΅ν•œ λž­κ·Έλž˜ν”„μ™€ λž­μŠ€λ―ΈμŠ€μ— λŒ€ν•΄μ„œλ„ μ‚΄νŽ΄λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
RAG와 CAG ꡬ쑰 비ꡐ
랭체인 ꡬ쑰
λž­κ·Έλž˜ν”„ ꡬ쑰
μ£Όμ–΄μ§„ ν•™μŠ΅ 데이터λ₯Ό ν™œμš©ν•΄ 뢄포λ₯Ό λ”°λ₯΄λŠ” μœ μ‚¬ν•œ 데이터λ₯Ό μƒμ„±ν•˜λŠ” 생성 λͺ¨λΈ 쀑 VAE, GAN, ν™•μ‚° λͺ¨λΈμ˜ 핡심 μ•„ν‚€ν…μ²˜μ™€ 데이터 뢄포λ₯Ό μ΅ν˜”μŠ΅λ‹ˆλ‹€.
λΆ„λ₯˜ λͺ¨λΈκ³Ό 생성 λͺ¨λΈμ˜ 차이점
생성 λͺ¨λΈμ˜ λΆ„λ₯˜
AE λͺ¨λΈμ˜ ꡬ쑰
VAE λͺ¨λΈμ˜ ꡬ쑰
GAN, ν™•μ‚° λͺ¨λΈμ˜ ꡬ쑰

Session 6. μΆ”μ²œμ‹œμŠ€ν…œ 심화

ꡐ윑 μ„Έμ…˜μ—μ„œ ν•™μŠ΅ν•œ μΆ”μ²œμ‹œμŠ€ν…œ λ‚΄μš©μ„ λ³΅μŠ΅ν•œ ν›„, κΈ°μ‘΄ ν˜‘μ—… ν•„ν„°λ§μ˜ ν•œκ³„μΈ ν¬μ†Œμ„±κ³Ό ν™•μž₯μ„± 문제λ₯Ό ν•΄κ²°ν•˜λŠ” 잠재 μš”μΈκ³Ό ν–‰λ ¬ λΆ„ν•΄λ₯Ό μ΅ν˜”μŠ΅λ‹ˆλ‹€.
잠재 μš”μΈκ³Ό ν–‰λ ¬ λΆ„ν•΄
ν–‰λ ¬ λΆ„ν•΄ μ’…λ₯˜
졜근 μΆ”μ²œμ‹œμŠ€ν…œμ˜ λ°©ν–₯성인 VAE, GNN λ“± λ”₯λŸ¬λ‹ μ•„ν‚€ν…μ²˜λ‘œ ν™•μž₯ν•˜μ—¬ λ³΅μž‘ν•œ λΉ„μ„ ν˜• 관계와 행동 μˆœμ„œλ₯Ό νŒŒμ•…ν•˜λŠ” 방법을 ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€.
졜근 μΆ”μ²œμ‹œμŠ€ν…œμ˜ λ°©ν–₯μ„±
VAE 기반 ν˜‘μ—… 필터링
L(x;ΞΈ,Ο•)=EqΟ•(z∣x)[log⁑pΞΈ(x∣z)]βŸμž¬κ΅¬μ„±Β μ˜€μ°¨Β μ΅œμ†Œν™”Β (ReconstructionΒ Loss)βˆ’DKL(qΟ•(z∣x)∣∣p(z))βŸμž μž¬Β κ³΅κ°„Β μ •κ·œν™”Β (KLΒ Divergence)\mathcal{L}(x; \theta, \phi) = \underbrace{E_{q_\phi(z|x)} [ \log p_\theta(x|z) ]}_{\text{μž¬κ΅¬μ„± 였차 μ΅œμ†Œν™” (Reconstruction Loss)}} - \underbrace{D_{\text{KL}}(q_\phi(z|x) || p(z))}_{\text{잠재 곡간 μ •κ·œν™” (KL Divergence)}} VAE λͺ©μ  ν•¨μˆ˜
GNN의 μž‘λ™ ν”„λ‘œμ„ΈμŠ€
LightGCN의 μ•„ν‚€ν…μ²˜
λ”₯λŸ¬λ‹ μ•„ν‚€ν…μ²˜ 쀑 μ‹œν€€μŠ€ λ‚΄μ˜ λ¬Έλ§₯κ³Ό 핡심 μ˜λ„λ₯Ό νŒŒμ•…ν•˜λŠ” 데 κ°•λ ₯ν•œ 트랜슀포머 ꡬ쑰λ₯Ό μΆ”μ²œμ‹œμŠ€ν…œμ— μ μš©ν•œ SASRecκ³Ό BERT4Rec의 원리λ₯Ό ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€. λ˜ν•œ, μΆ”μ²œμ„ μ–Έμ–΄μ˜ 문제둜 λ³€ν™”μ‹œν‚€κ³  μžˆλŠ” LLM 기반 μΆ”μ²œμ‹œμŠ€ν…œμ— λŒ€ν•΄ μ‚΄νŽ΄λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
SASRec의 원리
BERT4Rec의 원리

Session 7~8. μ‹œκ³„μ—΄

μ‹œκ³„μ—΄ λ°μ΄ν„°μ˜ μ •μ˜, μ’…λ₯˜μ™€ ν•¨κ»˜ μ‹œκ°„ μ˜μ‘΄μ„±, μžκΈ°μƒκ΄€, μΆ”μ„Έ, κ³„μ ˆμ„± 같은 핡심 톡계적 νŠΉμ„±μ„ ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€. μ‹œκ³„μ—΄μ„ μΆ”μ„Έ, κ³„μ ˆμ„±, μˆœν™˜, λΆˆκ·œμΉ™ μš”μΈμœΌλ‘œ λΆ„ν•΄ν•˜λŠ” 기법을 읡히고, λΆ„μ„μ˜ μ „μ œ 쑰건인 정상성(Stationarity)의 κ°œλ…κ³Ό μ€‘μš”μ„±μ— λŒ€ν•΄ ν•™μŠ΅ν•˜μ˜€μŠ΅λ‹ˆλ‹€. λ˜ν•œ, μ‹œκ°μ  탐색 및 톡계 검정을 톡해 정상성을 νŒλ‹¨ν•˜κ³ , Pandasλ₯Ό ν™œμš©ν•΄ 데이터λ₯Ό 닀루며 정상성을 ν™•λ³΄ν•˜λŠ” λ‹€μ–‘ν•œ 방법듀을 μ‚΄νŽ΄λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
μ‹œκ³„μ—΄μ—μ„œμ˜ μΆ”μ„Έμ„±, κ³„μ ˆμ„±, μ£ΌκΈ°μ„±, λΆˆκ·œμΉ™ μš”μΈ
μ‹œκ³„μ—΄μ—μ„œμ˜ μ°¨λΆ„
μ‹œκ³„μ—΄ λ°μ΄ν„°λŠ”?
(1) μžκΈ°μƒκ΄€μ„±(Autocorrelation)
(2) 비정상성(Non-stationarity)
(3) κ³„μ ˆμ„±(Seasonality)
둜그 λ³€ν™˜μ„ ν†΅ν•œ λΆ„μ‚° μ•ˆμ •ν™”
λ‹¨λ³€λŸ‰/λ‹€λ³€λž‘ μ‹œκ³„μ—΄ λͺ¨λΈμ„ μ‚΄νŽ΄λ³΄μ•˜μŠ΅λ‹ˆλ‹€. λ‹¨λ³€λŸ‰ μ‹œκ³„μ—΄ λͺ¨λΈμ€ μ•ˆμ •μ / λΆˆμ•ˆμ • μ‹œκ³„μ—΄ λͺ¨λΈλ‘œ κ΅¬λΆ„ν•˜μ—¬ AR, MA, ARMA / ARIMA, SARIMA에 λŒ€ν•΄ ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€. VAR을 톡해 λ‹€λ³€λŸ‰ μ‹œκ³„μ—΄ 뢄석을 κ³΅λΆ€ν•˜κ³ , RNN, Transformer 기반의 λ”₯λŸ¬λ‹ λͺ¨λΈκ³Ό Foundation model에 λŒ€ν•΄ μ•Œμ•„λ³΄μ•˜μŠ΅λ‹ˆλ‹€.
μžκΈ°μƒκ΄€ν•¨μˆ˜(Auto Correlation Function, ACF)
VAR λͺ¨λΈ μˆ˜μ‹
λΆ€λΆ„μžκΈ°μƒκ΄€ν•¨μˆ˜(Partial ACF, PACF)
닀쀑 μ‹œμ  μ‹œκ³„μ—΄ 예츑 λͺ¨λΈ : TFT

Session 9. AI νŠΈλ Œλ“œ

컴퓨터 ꡬ쑰와 ν•˜λ“œμ›¨μ–΄μ˜ μ§„ν™”κ°€ AI μ„±λŠ₯ ν–₯상에 미친 영ν–₯을 CPUβ†’GPUβ†’NPUβ†’PIM 순으둜 νŒŒμ•…ν–ˆμŠ΅λ‹ˆλ‹€.
CPU, GPU, NPU 비ꡐ
λ©”λͺ¨λ¦¬ 내뢀에 μ—°μ‚° μž₯치λ₯Ό 심어, λ°μ΄ν„°μ˜ μ €μž₯ μœ„μΉ˜μ—μ„œ λ°”λ‘œ κ³„μ‚°ν•˜λŠ” PIM
λΉ…ν…Œν¬ κΈ°μ—…μœΌλ‘œ 졜근 5κ°œλ…„ AI의 νŠΈλ Œλ“œ 흐름을 νŒŒμ•…ν–ˆμŠ΅λ‹ˆλ‹€. μƒμ„±μ—μ„œ λ‚˜μ•„κ°€ 자율적으둜 νŒλ‹¨ν•˜κ³  ν–‰λ™ν•˜λŠ” Agentic AI μ‹œλŒ€λ‘œ μ ‘μ–΄λ“  μ΅œμ‹  νŠΈλ Œλ“œλ₯Ό ν•™μŠ΅ν–ˆμŠ΅λ‹ˆλ‹€. 특히 AI μ—μ΄μ „νŠΈμ˜ 핡심 ꡬ성 μš”μ†ŒμΈ λͺ¨λΈ, 도ꡬ, MCP와 '생각-λ™μž‘-κ΄€μ°°'둜 μ΄μ–΄μ§€λŠ” μ›Œν¬ν”Œλ‘œμš°λ₯Ό 톡해 싀무 μ€‘μ‹¬μ˜ AI ν™œμš©λ²•μ„ μ΅ν˜”μŠ΅λ‹ˆλ‹€.
λ„€ κ°€μ§€ 기술이 μ„žμ—¬ μžˆλŠ” ν˜„μž¬μ˜ AI λ°œμ „ 상황
AI Agent의 핡심 ꡬ성 μš”μ†Œ
AI Agent의 μ›Œν¬ν”Œλ‘œμš°: 생각-λ™μž‘-κ΄€μ°°μ˜ μˆœν™˜μ„ 거친 μ΅œμ’… λ‹΅λ³€ 생성