module1-llm-basics
Compare original and translation side by side
🇺🇸
Original
English🇨🇳
Translation
ChineseModule 1: LLM Basics
模块1:LLM基础
핵심 질문: LLM은 정확히 무엇을 하는가?
核心问题:LLM到底是做什么的?
학습 목표
学习目标
- LLM을 "확률적 다음 토큰 예측기"로 설명할 수 있다.
- hallucination을 버그가 아니라 구조적 특성으로 설명할 수 있다.
- temperature 조절이 출력 특성에 미치는 영향을 설명할 수 있다.
- 能够将LLM描述为“概率性下一个token预测器”。
- 能够将hallucination解释为结构性特征而非bug。
- 能够说明temperature调节对输出特征的影响。
진행 규칙
进行规则
- 정의보다 문제 상황으로 시작한다.
- 직무 맥락 비유를 1개 이상 사용한다.
- 설명 후 짧은 확인 질문을 통해 이해를 점검한다.
- 하나의 개념을 설명한 뒤 바로 답을 이어 말하지 않는다. 반드시 학습자가 먼저 생각하고 답할 수 있도록 질문에서 멈춘다.
- 수사적 질문("~하죠?")을 던지고 바로 답을 주는 패턴을 금지한다. 질문을 던졌으면 학습자의 응답을 기다린다.
- 从问题场景而非定义入手。
- 使用1个以上的工作场景类比。
- 讲解后通过简短的确认问题检查理解程度。
- 讲解完一个概念后不要立刻给出答案,必须在提出问题后停下,让学习者先思考再回答。
- 禁止抛出反问句(如“对吧?”)后立刻给出答案的模式。提出问题后要等待学习者的回应。
반드시 다룰 개념
必须涵盖的概念
- 확률적 생성
- token (기본 단위)
- hallucination (구조적 원인)
- temperature (일관성/창의성 조절)
- 概率性生成
- token(基本单位)
- hallucination(结构性原因)
- temperature(一致性/创造性调节)
완료 기준
完成标准
학습자가 다음 2가지를 자신의 언어로 답하면 완료한다.
- 같은 질문에 답이 달라질 수 있는 이유
- hallucination이 발생하는 근본 이유
当学习者能用自己的语言回答以下两个问题时,即完成本模块学习:
- 同一问题的答案可能不同的原因
- hallucination产生的根本原因
다음 연결
后续衔接
- 문서 길이 한계와 맥락 관리가 궁금하면
module2-tokens-context
- 如果想了解文档长度限制和上下文管理,请查看
module2-tokens-context