← 返回首页

AI 专属组件

共 18 个组件,含完整使用示例

ai-thinking — AI 思考指示器

speed="normal" (default)
speed="slow"
speed="fast"

ai-stream — 钢笔书写流式输出

speed="60" (ms/char)
cursor="false"

ai-hallucination — 幻觉内容标记

根据我们的研究,2024 年苹果公司发布了 iPhone 16 Pro Max Ultra…
label="未经核实"
这篇论文声称解决了 P=NP 问题,已在 Nature 主刊发表。

ai-not-found — AI 虚构引用

AI 引用了不存在的论文

ai-fake-error — 假装报错效果

delay="1500" (ms)
开玩笑的,这是 AI 生成的假错误

ai-confidence — 置信度可视化

high (0.9)
medium (0.5)
low (0.2)

ai-diff — AI 红笔批改 (Myers Diff)

character-level diff (inline)
multi-line diff
mode="side-by-side"

ai-cost — Token 消耗显示

tokens="1234" rate="0.003"
animate (实时增长)

ai-model-badge — 模型徽章

ai-citation — 知识库引用 / 来源注释

Transformer 架构彻底改变了自然语言处理领域,成为几乎所有大语言模型的基础。
confidence="0.4" (low)
某些未经充分验证的研究结论需要谨慎引用。

ai-message — 聊天消息气泡

role="user"
请帮我解释一下 Transformer 架构的自注意力机制。
role="assistant" + model
自注意力(Self-Attention)机制允许序列中的每个位置关注到同一序列中的其他位置,通过计算 Query、Key、Value 矩阵来获得上下文表示。
role="assistant" loading=true
role="system"
System: You are a helpful assistant specialized in machine learning.

ai-prompt — AI 提示词输入框

show-token-count max-tokens="4096"
disabled

ai-tool-call — 工具调用展示

status="success" (click to expand)
status="running"
status="error"

ai-reasoning — 思维链 / 推理过程

collapsed=true (default, click to expand)
collapsed=false (expanded)

ai-feedback — 响应反馈按钮组

default (no value)
value="up" (thumbs up selected)
value="down"
minimal (no copy/retry)

ai-guardrail — 内容安全 / 过滤提示

level="info"

这是正常的回复内容,其中一些词汇已做替换处理。

level="warning"

内容已被标记,请谨慎阅读。

level="blocked"

此内容不可见。

ai-source-card — RAG 检索结果卡片

ai-token-usage — Token 用量详情面板

expanded mode
compact=true