🌱Kejia's Digital Garden

Home

❯

🪄AI漫谈

Folder: 🪄AI漫谈

22 items under this folder.

  • Dec 29, 2025

    LLM 与传统统计语言模型有何不同?

    • Dec 29, 2025

      context window

      • Dec 29, 2025

        how Softmax function is used

        • Dec 29, 2025

          how Attention scores calculated

          • Dec 29, 2025

            人要比AI凶

            • Dec 29, 2025

              why tokenization so important

              • Dec 29, 2025

                embeddings

                • Dec 29, 2025

                  关于提示词凝练对于生成质量的影响

                  • Dec 29, 2025

                    复合人工智能系统-工程师的首选

                    • Dec 29, 2025

                      secret project 1

                      • Dec 29, 2025

                        secret project 2

                        • Dec 29, 2025

                          What is query,key and value for token

                          • ZK/PN
                        • Dec 29, 2025

                          How does the attention mechanism function in transformer models

                          • ZK/PN
                        • Dec 29, 2025

                          attention weights

                          • Dec 29, 2025

                            点积计算的相关性分值是怎么来的?

                            • Dec 29, 2025

                              How dot product work in attention mechanics

                              • ZK/PN
                            • Jul 13, 2025

                              Chain Rule

                              • 链式法则
                              • Chain-Rule
                              • 反向传播
                              • 梯度下降
                              • LLM
                              • 原子概念
                            • Jul 13, 2025

                              Jacobian Matrix

                              • 雅可比矩阵
                              • Jacobian
                              • 反向传播
                              • 梯度计算
                              • Transformer
                              • 原子概念
                            • Jul 13, 2025

                              Positional Encodings

                              • 位置编码
                              • Transformer
                              • 序列顺序
                              • 原子概念
                              • 正弦函数
                            • Jul 13, 2025

                              Transformer vs Seq2Seq - 从"排队点餐"到"自助餐"的进化"

                              • Seq2Seq
                              • Transformer
                              • 并行处理
                              • 长距离依赖
                              • 原子概念
                            • Jul 13, 2025

                              Transformer 如何解决梯度消失问题?——从"传话游戏"到"高速公路"的进化

                              • Transformer
                              • 梯度消失
                              • 深度学习
                              • 残差连接
                            • Jun 26, 2025

                              multi-head attention


                              Created with Quartz v1.0.0 © 2025

                              • X (Twitter)
                              • Discord
                              • Linkedin