cinematography

Compare original and translation side by side

🇺🇸

Original

English
🇨🇳

Translation

Chinese

Cinematography with genmedia

基于genmedia的影视拍摄设计

Use this skill when the user needs cinematic direction, not generic "make it cinematic" prompting. Load references as needed:
  • references/shot-language.md
  • references/lighting-lens-color.md
  • references/examples.md
Load
model-routing
alongside this skill for default endpoint choices.
Write concrete visual direction. Avoid empty prestige words and em dashes.
当用户需要具体的影视拍摄指导,而非笼统的“让它更有电影感”这类提示时,使用本技能。按需加载参考文档:
  • references/shot-language.md
  • references/lighting-lens-color.md
  • references/examples.md
搭配加载
model-routing
技能以获取默认端点选项。
撰写具体的视觉指导内容。避免使用空泛的华丽辞藻和破折号。

Inputs to collect

需要收集的输入信息

Ask only for what affects the shot:
  • Subject and action.
  • Medium: still image, video, image-to-video, edit, storyboard frame.
  • Genre and mood.
  • Framing: close-up, medium, wide, overhead, POV, profile, locked-off.
  • Camera motion for video: push-in, dolly, tracking, handheld, crane, drone.
  • Lens feel: wide, normal, telephoto, macro, shallow or deep focus.
  • Lighting: natural, practical, studio, noir, high key, low key, backlit.
  • Output: aspect ratio, duration, first frame, last frame, download path.
  • Preferred model, if the user wants a specific cinematography model or quality/cost profile.
仅询问会影响镜头效果的内容:
  • 拍摄主体与动作。
  • 媒介类型:静态图像、视频、图像转视频、剪辑、分镜帧。
  • 类型与氛围。
  • 取景:特写、中景、全景、俯拍、主观视角、侧拍、固定镜头。
  • 视频镜头运动:推镜、移镜、跟拍、手持拍摄、摇臂拍摄、无人机拍摄。
  • 镜头质感:广角、标准、长焦、微距、浅景深或深景深。
  • 灯光:自然光、现场光、棚拍光、黑色电影风格、高调光、低调光、逆光。
  • 输出设置:宽高比、时长、首帧、末帧、下载路径。
  • 偏好模型(若用户指定特定影视拍摄模型或质量/成本配置)。

Genmedia workflow

genmedia工作流程

  1. Start from routed endpoint IDs.
    bash
    genmedia models --endpoint_id openai/gpt-image-2 --json
    genmedia models --endpoint_id fal-ai/nano-banana-pro --json
    genmedia models --endpoint_id bytedance/seedance-2.0/text-to-video --json
    genmedia models --endpoint_id bytedance/seedance-2.0/image-to-video --json
    genmedia models --endpoint_id xai/grok-imagine-video/text-to-video --json
    Use text search only as fallback discovery for a missing camera-control role:
    bash
    genmedia models "cinematic video generation camera movement" --json
    genmedia docs "video generation camera movement prompt" --json
  2. Inspect schema and use only supported controls.
    bash
    genmedia schema <endpoint_id> --json
    genmedia pricing <endpoint_id> --json
  3. Upload references when using image-to-video, first frame, last frame, style reference, or character/product continuity.
    bash
    genmedia upload ./frame.png --json
  4. Run stills with direct download.
    bash
    genmedia run <endpoint_id> \
      --prompt "<cinematography prompt>" \
      --download "./outputs/cinema/{request_id}_{index}.{ext}" \
      --json
  5. Run video async.
    bash
    genmedia run <endpoint_id> \
      --prompt "<shot prompt>" \
      --image_url "<uploaded frame if supported>" \
      --async \
      --json
    
    genmedia status <endpoint_id> <request_id> \
      --download "./outputs/cinema/{request_id}_{index}.{ext}" \
      --json
  1. 从路由端点ID开始。
    bash
    genmedia models --endpoint_id openai/gpt-image-2 --json
    genmedia models --endpoint_id fal-ai/nano-banana-pro --json
    genmedia models --endpoint_id bytedance/seedance-2.0/text-to-video --json
    genmedia models --endpoint_id bytedance/seedance-2.0/image-to-video --json
    genmedia models --endpoint_id xai/grok-imagine-video/text-to-video --json
    仅当缺少镜头控制相关角色时,才使用文本搜索作为后备发现方式:
    bash
    genmedia models "cinematic video generation camera movement" --json
    genmedia docs "video generation camera movement prompt" --json
  2. 检查架构并仅使用支持的控制项。
    bash
    genmedia schema <endpoint_id> --json
    genmedia pricing <endpoint_id> --json
  3. 当使用图像转视频、首帧、末帧、风格参考或角色/产品一致性功能时,上传参考文件。
    bash
    genmedia upload ./frame.png --json
  4. 运行静态图像生成并直接下载。
    bash
    genmedia run <endpoint_id> \
      --prompt "<cinematography prompt>" \
      --download "./outputs/cinema/{request_id}_{index}.{ext}" \
      --json
  5. 异步运行视频生成。
    bash
    genmedia run <endpoint_id> \
      --prompt "<shot prompt>" \
      --image_url "<uploaded frame if supported>" \
      --async \
      --json
    
    genmedia status <endpoint_id> <request_id> \
      --download "./outputs/cinema/{request_id}_{index}.{ext}" \
      --json

Prompt build order

提示词构建顺序

Use the SCLCAM structure:
  1. Subject: who or what is in frame.
  2. Context: location, time, weather, story moment.
  3. Lens/framing: distance, angle, focal length feel, depth of field.
  4. Camera motion: only for video or if motion blur is desired.
  5. Atmosphere: haze, rain, practicals, reflections, texture.
  6. Mood/color: palette, contrast, grade, exposure style.
  7. Output controls: aspect ratio, duration, first-frame continuity.
Example structure:
text
[subject] in [context], framed as [shot size and angle], [lens feel],
[lighting setup], [camera movement if video], [color grade], [texture],
[duration or aspect ratio], [continuity constraints]
采用SCLCAM结构:
  1. 主体(Subject):画面中的人物或事物。
  2. 场景(Context):地点、时间、天气、故事节点。
  3. 镜头/取景(Lens/framing):拍摄距离、角度、焦距质感、景深。
  4. 镜头运动(Camera motion):仅适用于视频或需要运动模糊效果的场景。
  5. 氛围(Atmosphere):薄雾、雨天、现场光源、反射、质感。
  6. 氛围/色彩(Mood/color):调色板、对比度、色彩分级、曝光风格。
  7. 输出控制(Output controls):宽高比、时长、首帧一致性。
示例结构:
text
[主体] 在 [场景] 中,采用 [镜头尺寸与角度] 取景,[镜头质感],[灯光设置],[视频镜头运动(若为视频)],[色彩分级],[质感],[时长或宽高比],[一致性约束]

Model routing

模型路由

  • Premium realistic still: use
    openai/gpt-image-2
    .
  • Premium stylized still: use
    openai/gpt-image-2
    , then
    fal-ai/nano-banana-pro
    , then
    fal-ai/nano-banana-2
    .
  • Fast draft still: use
    fal-ai/flux-2/klein/9b
    .
  • Highest quality video: use
    bytedance/seedance-2.0/text-to-video
    or
    bytedance/seedance-2.0/image-to-video
    .
  • Motion from a strong frame: use
    bytedance/seedance-2.0/image-to-video
    .
  • Fast or lower-cost video: use
    xai/grok-imagine-video/text-to-video
    or
    xai/grok-imagine-video/image-to-video
    .
  • Complex camera language: inspect Seedance 2.0 first, then Kling v3 when multi-prompt or element controls matter.
  • Story sequence: use the storytelling skill with this skill as shot-language support.
  • Character or product continuity: use the relevant domain skill first, then apply cinematography as the variable block.
  • 高端写实静态图像:使用
    openai/gpt-image-2
  • 高端风格化静态图像:先使用
    openai/gpt-image-2
    ,再尝试
    fal-ai/nano-banana-pro
    ,最后使用
    fal-ai/nano-banana-2
  • 快速草稿静态图像:使用
    fal-ai/flux-2/klein/9b
  • 最高质量视频:使用
    bytedance/seedance-2.0/text-to-video
    bytedance/seedance-2.0/image-to-video
  • 基于清晰帧生成动态效果:使用
    bytedance/seedance-2.0/image-to-video
  • 快速或低成本视频:使用
    xai/grok-imagine-video/text-to-video
    xai/grok-imagine-video/image-to-video
  • 复杂镜头语言:先查看Seedance 2.0的支持情况,当需要多提示词或元素控制时再使用Kling v3。
  • 故事序列:将本技能作为镜头语言支持,搭配叙事技能使用。
  • 角色或产品一致性:先使用相关领域技能,再将影视拍摄设计作为可变模块应用。

Quality bar

质量标准

Before returning, check:
  • Camera movement is physically plausible for the scene.
  • Lens, shot size, and camera angle do not contradict each other.
  • Lighting direction is clear and consistent.
  • Color grade supports the mood without flattening subject detail.
  • Video prompt describes one shot unless the selected model supports multiple prompts or shot lists.
  • Downloaded files come from
    downloaded_files[]
    .
If a result looks generic, improve specificity in camera, blocking, light, and environment before adding more adjectives.
返回结果前,检查以下内容:
  • 镜头运动在场景中符合物理逻辑。
  • 镜头类型、取景尺寸与拍摄角度之间无矛盾。
  • 灯光方向清晰且一致。
  • 色彩分级能够烘托氛围,同时不会弱化主体细节。
  • 视频提示词仅描述单个镜头,除非所选模型支持多提示词或镜头列表。
  • 下载文件来自
    downloaded_files[]
若结果看起来过于笼统,先在镜头、调度、灯光和环境方面提升细节,再添加更多形容词。