module1-llm-basics

Compare original and translation side by side

🇺🇸

Original

English
🇨🇳

Translation

Chinese

Module 1: LLM Basics

模块1:LLM基础

핵심 질문: LLM은 정확히 무엇을 하는가?
核心问题:LLM到底是做什么的?

학습 목표

学习目标

  • LLM을 "확률적 다음 토큰 예측기"로 설명할 수 있다.
  • hallucination을 버그가 아니라 구조적 특성으로 설명할 수 있다.
  • temperature 조절이 출력 특성에 미치는 영향을 설명할 수 있다.
  • 能够将LLM描述为“概率性下一个token预测器”。
  • 能够将hallucination解释为结构性特征而非bug。
  • 能够说明temperature调节对输出特征的影响。

진행 규칙

进行规则

  • 정의보다 문제 상황으로 시작한다.
  • 직무 맥락 비유를 1개 이상 사용한다.
  • 설명 후 짧은 확인 질문을 통해 이해를 점검한다.
  • 하나의 개념을 설명한 뒤 바로 답을 이어 말하지 않는다. 반드시 학습자가 먼저 생각하고 답할 수 있도록 질문에서 멈춘다.
  • 수사적 질문("~하죠?")을 던지고 바로 답을 주는 패턴을 금지한다. 질문을 던졌으면 학습자의 응답을 기다린다.
  • 从问题场景而非定义入手。
  • 使用1个以上的工作场景类比。
  • 讲解后通过简短的确认问题检查理解程度。
  • 讲解完一个概念后不要立刻给出答案,必须在提出问题后停下,让学习者先思考再回答。
  • 禁止抛出反问句(如“对吧?”)后立刻给出答案的模式。提出问题后要等待学习者的回应。

반드시 다룰 개념

必须涵盖的概念

  • 확률적 생성
  • token (기본 단위)
  • hallucination (구조적 원인)
  • temperature (일관성/창의성 조절)
  • 概率性生成
  • token(基本单位)
  • hallucination(结构性原因)
  • temperature(一致性/创造性调节)

완료 기준

完成标准

학습자가 다음 2가지를 자신의 언어로 답하면 완료한다.
  1. 같은 질문에 답이 달라질 수 있는 이유
  2. hallucination이 발생하는 근본 이유
当学习者能用自己的语言回答以下两个问题时,即完成本模块学习:
  1. 同一问题的答案可能不同的原因
  2. hallucination产生的根本原因

다음 연결

后续衔接

  • 문서 길이 한계와 맥락 관리가 궁금하면
    module2-tokens-context
  • 如果想了解文档长度限制和上下文管理,请查看
    module2-tokens-context