🌱Kejia's Digital Garden
Search
Search
Dark mode
Light mode
Explorer
Home
❯
🪄AI漫谈
Folder: 🪄AI漫谈
22 items under this folder.
Dec 29, 2025
LLM 与传统统计语言模型有何不同?
Dec 29, 2025
context window
Dec 29, 2025
how Softmax function is used
Dec 29, 2025
how Attention scores calculated
Dec 29, 2025
人要比AI凶
Dec 29, 2025
why tokenization so important
Dec 29, 2025
embeddings
Dec 29, 2025
关于提示词凝练对于生成质量的影响
Dec 29, 2025
复合人工智能系统-工程师的首选
Dec 29, 2025
secret project 1
Dec 29, 2025
secret project 2
Dec 29, 2025
What is query,key and value for token
ZK/PN
Dec 29, 2025
How does the attention mechanism function in transformer models
ZK/PN
Dec 29, 2025
attention weights
Dec 29, 2025
点积计算的相关性分值是怎么来的?
Dec 29, 2025
How dot product work in attention mechanics
ZK/PN
Jul 13, 2025
Chain Rule
链式法则
Chain-Rule
反向传播
梯度下降
LLM
原子概念
Jul 13, 2025
Jacobian Matrix
雅可比矩阵
Jacobian
反向传播
梯度计算
Transformer
原子概念
Jul 13, 2025
Positional Encodings
位置编码
Transformer
序列顺序
原子概念
正弦函数
Jul 13, 2025
Transformer vs Seq2Seq - 从"排队点餐"到"自助餐"的进化"
Seq2Seq
Transformer
并行处理
长距离依赖
原子概念
Jul 13, 2025
Transformer 如何解决梯度消失问题?——从"传话游戏"到"高速公路"的进化
Transformer
梯度消失
深度学习
残差连接
Jun 26, 2025
multi-head attention