AI 知識2026/05/01
Transformer 架構理解 — Attention Is All You Need
深入理解 Transformer 的核心組件:Self-Attention、Multi-Head Attention、Positional Encoding,以及它們如何取代 RNN 成為現代 LLM 的基礎架構。
TransformerAttentionLLM+1
開源項目2026/04/28
Ollama — 本地運行 LLM 的最佳方案
Ollama 讓你在 Mac/Windows/Linux 上一鍵運行 Llama、Mistral、Qwen 等開源模型,完全離線、免費、隱私安全。
OllamaLLMLocal+2