Skip to main content

πŸš€ Generative AI Fundamentals

μƒμ„±ν˜• AIλž€?​

생성적 AIλŠ” μƒˆλ‘œμš΄ 원본 μ½˜ν…μΈ λ₯Ό 생성할 수 μžˆλŠ” 기회λ₯Ό μ—΄μ–΄μ£ΌλŠ” 인곡지λŠ₯의 ν₯미둜운 λΆ„μ•Όλ‘œ, μž‘μ„±λœ ν…μŠ€νŠΈμ—μ„œλΆ€ν„° λ©‹μ§„ λΉ„μ£Όμ–Ό, 심지어 컴퓨터 생성 μŒμ•…μ— 이λ₯΄κΈ°κΉŒμ§€ λ‹€μ–‘ν•©λ‹ˆλ‹€. μ΄λŠ” λ‹¨μˆœν•œ 뢄석 μž‘μ—…μ„ λ„˜μ–΄ 창의적인 ν”„λ‘œμ„ΈμŠ€μ— μ°Έμ—¬ν•¨μœΌλ‘œμ¨ AI의 ν˜μ‹ μ μΈ 츑면을 λ³΄μ—¬μ€λ‹ˆλ‹€.

기술 μš©μ–΄ μ„€λͺ…​

  • ν…μŠ€νŠΈ 생성(Text Generation): μ΄λŠ” 컴퓨터가 μ£Όμ œμ™€ κ΄€λ ¨λœ 의미 μžˆλŠ” ν…μŠ€νŠΈλ₯Ό μž‘μ„±ν•˜λ„λ‘ ν•˜λŠ” κ²ƒμœΌλ‘œ, μžλ™ 이야기꾼과 μœ μ‚¬ν•©λ‹ˆλ‹€.

  • 이미지 생성(Image Generation): μ΄λŠ” 컴퓨터가 μƒˆλ‘œμš΄ 그림을 λ§Œλ“€κ±°λ‚˜ 기쑴의 그림을 λ³€κ²½ν•  수 있게 ν•΄μ£Όλ©°, 마치 λ””μ§€ν„Έ μ•„ν‹°μŠ€νŠΈκ°€ 가상 뢓을 μ‚¬μš©ν•˜λŠ” 것과 κ°™μŠ΅λ‹ˆλ‹€.

  • μ½”λ“œ 생성(Code Generation): μ΄λŠ” ν”„λ‘œκ·Έλž˜λ°μ„ μœ„ν•œ 생성적 AI둜, 컴퓨터가 μƒˆλ‘œμš΄ μ½”λ“œλ₯Ό μž‘μ„±ν•˜λŠ” 데 도움을 μ€λ‹ˆλ‹€.

  • μ˜€λ””μ˜€ 생성(Audio Generation): μ»΄ν“¨ν„°λŠ” μ†Œλ¦¬λ‚˜ μŒμ•…μ„ 생성할 μˆ˜λ„ 있으며, μ΄λŠ” 마치 λ‘œλ΄‡ μž‘κ³‘κ°€κ°€ μžμ‹ μ˜ λ©œλ‘œλ””λ₯Ό λ§Œλ“œλŠ” 것과 λΉ„μŠ·ν•©λ‹ˆλ‹€.

  • μ±— GPT(Chat GPT): OpenAIμ—μ„œ κ°œλ°œν•œ μ–Έμ–΄ λͺ¨λΈλ‘œ, λŒ€ν™”μ—μ„œ 인간이 μ œκ³΅ν•  수 μžˆλŠ” 응닡을 생성할 수 있으며, λ¬Έλ§₯에 따라 λ‹€μŒ 단어λ₯Ό μ˜ˆμΈ‘ν•˜μ—¬ 응닡을 λ§Œλ“­λ‹ˆλ‹€.

  • DALLΒ·E: OpenAI의 AI ν”„λ‘œκ·Έλž¨μœΌλ‘œ, ν…μŠ€νŠΈ μ„€λͺ…μœΌλ‘œλΆ€ν„° 이미지λ₯Ό μƒμ„±ν•˜λ©°, μ‹œκ° μ˜ˆμˆ μ—μ„œμ˜ μ°½μ˜μ„±μ„ λͺ¨λ°©ν•©λ‹ˆλ‹€.

  • GitHub Copilot: κ°œλ°œμžκ°€ 더 효율적이고 였λ₯˜λ₯Ό μ€„μ΄λ©΄μ„œ μ½”λ“œλ₯Ό μž‘μ„±ν•  수 μžˆλ„λ‘ μ½”λ“œ μŠ€λ‹ˆνŽ«μ„ μ œμ•ˆν•˜κ³  μ½”λ“œ 라인을 μ™„μ„±ν•˜λŠ” μ½”λ”© 보쑰 λ„κ΅¬μž…λ‹ˆλ‹€.

  • λ§₯락적 μ œμ•ˆ(Contextual Suggestions): Copilotκ³Ό 같은 AI 도ꡬ가 μ œκ³΅ν•˜λŠ” μΆ”μ²œμœΌλ‘œ, μ‚¬μš©μžκ°€ μž‘μ—… 쀑인 ν˜„μž¬μ˜ μž‘μ—…μ΄λ‚˜ λ§₯락과 관련이 μžˆμŠ΅λ‹ˆλ‹€.

AI 및 λ¨Έμ‹ λŸ¬λ‹ νƒ€μž„λΌμΈβ€‹

AI 및 λ¨Έμ‹ λŸ¬λ‹ νƒ€μž„λΌμΈμ€ 1950λ…„λŒ€μ˜ νΌμ…‰νŠΈλ‘ κ³Ό 같은 초기 λ°œμ „μ—μ„œ μ‹œμž‘ν•˜μ—¬, 생성적 AI의 졜근 ν˜μ‹ μ— 이λ₯΄κΈ°κΉŒμ§€ λ‹€μ–‘ν•œ 도전과 ν˜μ‹ μ„ 거쳐온 기술적 돌파ꡬ의 μ—¬μ •μž…λ‹ˆλ‹€. 이 νƒ€μž„λΌμΈμ€ AI의 진화에 κ΄€λ ¨λœ 인내와 독창성을 보여주며, 각 10년이 μ–΄λ–»κ²Œ 이전 10년을 기반으둜 ν•˜μ—¬ μ˜€λŠ˜λ‚ μ˜ ν₯미둜운 λŠ₯λ ₯에 λ„λ‹¬ν–ˆλŠ”μ§€λ₯Ό κ°•μ‘°ν•©λ‹ˆλ‹€.

기술 μš©μ–΄ μ„€λͺ…​

  • νΌμ…‰νŠΈλ‘ (Perceptron): μž…λ ₯이 νŠΉμ • ν΄λž˜μŠ€μ— μ†ν•˜λŠ”μ§€ μ—¬λΆ€λ₯Ό κ²°μ •ν•  수 μžˆλŠ” 초기 μœ ν˜•μ˜ 신경망 ꡬ성 μš”μ†Œλ‘œ, μž…λ ₯은 숫자 κ°’μœΌλ‘œ ν‘œν˜„λ©λ‹ˆλ‹€.

  • 신경망(Neural Networks): 인곡 λ‰΄λŸ° κ°„μ˜ 연결을 μ‘°μ •ν•˜μ—¬ λ°μ΄ν„°μ—μ„œ ν•™μŠ΅ν•  수 μžˆλŠ” 인간 λ‘λ‡Œλ₯Ό λͺ¨λΈλ‘œ ν•œ 컴퓨터 μ‹œμŠ€ν…œμž…λ‹ˆλ‹€.

  • μ—­μ „νŒŒ(Back Propagation): 손싀 ν•¨μˆ˜μ˜ 기울기λ₯Ό κ³„μ‚°ν•˜μ—¬ κ°€μ€‘μΉ˜λ₯Ό μ‘°μ •ν•¨μœΌλ‘œμ¨ λͺ¨λΈμ„ κ°œμ„ ν•˜λŠ” 데 μ‚¬μš©λ˜λŠ” 인곡 μ‹ κ²½λ§μ˜ λ°©λ²•μž…λ‹ˆλ‹€.

  • 톡계적 λ¨Έμ‹ λŸ¬λ‹(Statistical Machine Learning): λ°μ΄ν„°μ—μ„œ ν•™μŠ΅ν•˜λŠ” μ•Œκ³ λ¦¬μ¦˜μ„ μ‚¬μš©ν•˜μ—¬ 뢄석 λͺ¨λΈ ꡬ좕을 μžλ™ν™”ν•˜λŠ” 데이터 뢄석 λ°©λ²•μž…λ‹ˆλ‹€.

  • λ”₯λŸ¬λ‹(Deep Learning): μ†Œν”„νŠΈμ›¨μ–΄κ°€ λ‹€μΈ΅ 신경망에 λ°©λŒ€ν•œ μ–‘μ˜ 데이터λ₯Ό λ…ΈμΆœμ‹œμΌœ 슀슀둜 μž‘μ—…μ„ μˆ˜ν–‰ν•˜λ„λ‘ ν—ˆμš©ν•˜λŠ” μ•Œκ³ λ¦¬μ¦˜μœΌλ‘œ κ΅¬μ„±λœ λ¨Έμ‹ λŸ¬λ‹μ˜ ν•˜μœ„ μ§‘ν•©μž…λ‹ˆλ‹€.

  • 생성적 μ λŒ€ 신경망(Generative Adversarial Networks, GANs): 생성기와 νŒλ³„κΈ°λΌλŠ” 두 λ„€νŠΈμ›Œν¬κ°€ λ™μ‹œμ— ν›ˆλ ¨λ˜λŠ” λ¨Έμ‹ λŸ¬λ‹ λͺ¨λΈμ˜ ν•œ μ’…λ₯˜λ‘œ, μ œλ‘œμ„¬ κ²Œμž„ ν”„λ ˆμž„μ›Œν¬μ—μ„œ μž‘λ™ν•©λ‹ˆλ‹€.

  • 트랜슀포머(Transformer): 순차 데이터λ₯Ό μ²˜λ¦¬ν•˜λŠ” λ”₯λŸ¬λ‹ λͺ¨λΈμ˜ ν•œ μ’…λ₯˜λ‘œ, μžμ—°μ–΄ 처리 μž‘μ—…μ—μ„œ 높은 μ„±λŠ₯으둜 μ£Όλͺ©λ°›κ³  μžˆμŠ΅λ‹ˆλ‹€.

생성적 AI λͺ¨λΈμ„ ν›ˆλ ¨ν•˜λŠ” 방법​

생성적 AI λͺ¨λΈμ„ ν›ˆλ ¨ν•˜λŠ” ν₯미둜운 μ„Έκ³„λŠ” 컴퓨터가 λ°©λŒ€ν•œ λ°μ΄ν„°μ…‹μ—μ„œ ν•™μŠ΅ν•˜μ—¬ ν…μŠ€νŠΈλ‚˜ 이미지와 같은 μƒˆλ‘œμš΄ μ½˜ν…μΈ λ₯Ό μƒμ„±ν•˜λ„λ‘ κ°€λ₯΄μΉ˜λŠ” κ²ƒμž…λ‹ˆλ‹€. 이 ν›ˆλ ¨μ€ AIκ°€ 인간 언어와 μ‹œκ° μ˜ˆμˆ μ—μ„œ λ°œκ²¬λ˜λŠ” λ³΅μž‘ν•œ νŒ¨ν„΄μ„ μ΄ν•΄ν•˜κ³  μž¬ν˜„ν•˜λŠ” 데 도움을 μ€λ‹ˆλ‹€. 이 과정은 λ³΅μž‘ν•˜μ§€λ§Œ 맀우 보람이 있으며, λ†€λžλ„λ‘ ν˜„μ‹€κ° μžˆλŠ” 좜λ ₯을 생성할 수 μžˆλŠ” AI둜 μ΄μ–΄μ§‘λ‹ˆλ‹€.

기술 μš©μ–΄ μ„€λͺ…:​

  • λŒ€ν˜• μ–Έμ–΄ λͺ¨λΈ(Large Language Models, LLMs): μ΄λŠ” λ°©λŒ€ν•œ μ–‘μ˜ ν…μŠ€νŠΈ λ°μ΄ν„°λ‘œ ν›ˆλ ¨λ˜μ–΄ 인간 μ–Έμ–΄λ₯Ό μ΄ν•΄ν•˜κ³  μƒμ„±ν•˜λ„λ‘ νŠΉλ³„νžˆ μ„€κ³„λœ AI λͺ¨λΈμž…λ‹ˆλ‹€.

  • λ³€λΆ„ μ˜€ν† μΈμ½”λ”(Variational Autoencoders, VAEs): μƒˆλ‘œμš΄ 이미지λ₯Ό μƒμ„±ν•˜λŠ” 데 μ‚¬μš©ν•  수 μžˆλŠ” AI λͺ¨λΈμ˜ ν•œ μ’…λ₯˜μž…λ‹ˆλ‹€. 두 κ°€μ§€ μ£Όμš” λΆ€λΆ„μœΌλ‘œ κ΅¬μ„±λ˜μ–΄ μžˆμŠ΅λ‹ˆλ‹€: μΈμ½”λ”λŠ” 데이터λ₯Ό 더 κ°„λ‹¨ν•œ ν˜•νƒœλ‘œ μΆ•μ†Œν•˜κ³ , λ””μ½”λ”λŠ” 이λ₯Ό ν™•μž₯ν•˜μ—¬ μƒˆλ‘œμš΄ μ½˜ν…μΈ λ₯Ό μƒμ„±ν•©λ‹ˆλ‹€.

  • 잠재 곡간(Latent Space): μ˜€ν† μΈμ½”λ”κ°€ 더 κ°„λ‹¨ν•˜κ³  μž‘μ€ ν˜•νƒœλ‘œ μƒμ„±ν•˜λŠ” λ°μ΄ν„°μ˜ μ••μΆ•λœ ν‘œν˜„μœΌλ‘œ, μƒˆλ‘œμš΄ 데이터λ₯Ό μž¬κ΅¬μ„±ν•˜κ±°λ‚˜ μƒμ„±ν•˜λŠ” 데 ν•„μš”ν•œ κ°€μž₯ μ€‘μš”ν•œ νŠΉμ§•μ„ ν¬μ°©ν•©λ‹ˆλ‹€.

  • νŒŒλΌλ―Έν„°(Parameters): νŒŒλΌλ―Έν„°λŠ” λͺ¨λΈμ΄ ν›ˆλ ¨ 쀑에 ν•™μŠ΅ν•˜λŠ” λ³€μˆ˜μž…λ‹ˆλ‹€. 이듀은 λͺ¨λΈ 내뢀에 있으며 ν•™μŠ΅ 과정을 톡해 μ‘°μ •λ©λ‹ˆλ‹€. μ‹ κ²½λ§μ˜ λ§₯λ½μ—μ„œ νŒŒλΌλ―Έν„°λŠ” 일반적으둜 κ°€μ€‘μΉ˜μ™€ λ°”μ΄μ–΄μŠ€λ₯Ό ν¬ν•¨ν•©λ‹ˆλ‹€.

  • κ°€μ€‘μΉ˜(Weights): κ°€μ€‘μΉ˜λŠ” μž…λ ₯ λ°μ΄ν„°μ˜ κ³„μˆ˜μž…λ‹ˆλ‹€. 이듀은 계산에 μ‚¬μš©λ˜μ–΄ μž…λ ₯ λ³€μˆ˜κ°€ λͺ¨λΈμ˜ 좜λ ₯에 λ―ΈμΉ˜λŠ” μ€‘μš”μ„±μ΄λ‚˜ 영ν–₯을 κ²°μ •ν•©λ‹ˆλ‹€. μ‹ κ²½λ§μ—μ„œλŠ” λ‰΄λŸ° κ°„μ˜ 각 연결에 κ΄€λ ¨λœ κ°€μ€‘μΉ˜κ°€ μžˆμŠ΅λ‹ˆλ‹€.

  • λ°”μ΄μ–΄μŠ€(Biases): λ°”μ΄μ–΄μŠ€λŠ” λ‰΄λŸ°μ— λΆ€μ°©λœ μΆ”κ°€ μƒμˆ˜λ‘œ, ν™œμ„±ν™” ν•¨μˆ˜κ°€ 적용되기 전에 κ°€μ€‘μΉ˜κ°€ 적용된 μž…λ ₯에 μΆ”κ°€λ©λ‹ˆλ‹€. λ°”μ΄μ–΄μŠ€λŠ” λͺ¨λ“  μž…λ ₯이 0일 λ•Œμ—λ„ λΉ„μ œλ‘œ 좜λ ₯을 보μž₯ν•©λ‹ˆλ‹€.

  • ν•˜μ΄νΌνŒŒλΌλ―Έν„°(Hyperparameters): ν•˜μ΄νΌνŒŒλΌλ―Έν„°λŠ” νŒŒλΌλ―Έν„°μ™€ 달리 λ°μ΄ν„°μ—μ„œ ν•™μŠ΅λ˜μ§€ μ•ŠμŠ΅λ‹ˆλ‹€. 이듀은 ν•™μŠ΅ κ³Όμ •μ˜ μ„€μ •μ΄λ‚˜ ꡬ성에 더 κ°€κΉμŠ΅λ‹ˆλ‹€. ν›ˆλ ¨ κ³Όμ • 전에 μ„€μ •λ˜λ©° ν›ˆλ ¨ μ€‘μ—λŠ” μΌμ •ν•˜κ²Œ μœ μ§€λ©λ‹ˆλ‹€. 이듀은 λͺ¨λΈ 외뢀에 있으며 ν•™μŠ΅ 과정을 μ œμ–΄ν•˜λŠ” 데 μ‚¬μš©λ©λ‹ˆλ‹€.