မူရင်း Latent Patterns Glossary (https://latentpatterns.com/glossary) မှ အသုံးအနှုန်း (၁၃၆) ခုလုံးကို မြန်မာဘာသာသို့ အပြည့်အစုံ ပြန်ဆိုပြီး အခြေခံ သဘောတရားနှင့် အသေးစိတ် ရှင်းလင်းချက်များ ထည့်သွင်းပေးထားပါသည်။
- Activation Function (အက်တီရေးရှင်း ဖန်ရှင်): Neuron တစ်ခုရဲ့ စုစုပေါင်း ရလဒ် (weighted sum) ထွက်လာပြီးနောက်မှာ အသုံးပြုတဲ့ nonlinear function တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Neural network တွေမှာ activation function မပါရင် layer တွေ ဘယ်လောက်ပဲ ထပ်ထားပါစေ ရလဒ်က linear transformation တစ်ခုတည်း အဖြစ်ပဲ ထွက်လာမှာ ဖြစ်ပါတယ်။ Activation function က neural network ကို ရှုပ်ထွေးတဲ့ (non-linear) ပုံစံတွေကို သင်ကြားနိုင်စွမ်း ပေးပါတယ်။ ဥပမာ - ReLU, Sigmoid နဲ့ Tanh တို့ဟာ လူသိများတဲ့ activation function တွေ ဖြစ်ပါတယ်။
- Adam Optimizer (အာဒမ် အော့ပတီမိုက်ဇာ): Adaptive learning rate ကို အသုံးပြုတဲ့ optimizer တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Adam ဟာ RMSProp နဲ့ Momentum နည်းလမ်းနှစ်ခုလုံးရဲ့ အားသာချက်တွေကို ပေါင်းစပ်ထားတာ ဖြစ်ပါတယ်။ parameter တစ်ခုချင်းစီအတွက် momentum နဲ့ squared gradient ခန့်မှန်းချက်တွေကို bias correction နဲ့အတူ ထိန်းသိမ်းပေးတဲ့အတွက် training လုပ်တဲ့အခါ ပိုမိုမြန်ဆန်ပြီး တည်ငြိမ်စေပါတယ်။
- Agent Backpressure (အေဂျင့် ဘက်ပရက်ရှာ): အေဂျင့်တွေက သူတို့ရဲ့ အမှားတွေကို လူမလိုဘဲ ရှာဖွေပြင်ဆင်နိုင်အောင် လုပ်ဆောင်ပေးတဲ့ အလိုအလျောက် တုံ့ပြန်မှု ယန္တရားများ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Type systems, test suites, linters နဲ့ pre-commit hooks တွေဟာ backpressure mechanisms တွေ ဖြစ်ပါတယ်။ ဒါတွေက AI အေဂျင့်ကို သူလုပ်နေတဲ့အလုပ်မှာ အမှားပါရင် ချက်ချင်း သိရှိစေပြီး လူရဲ့ ဝင်ရောက်စွက်ဖက်မှု မလိုဘဲ ကိုယ့်ဘာသာ ပြန်ပြင်နိုင်စွမ်း ပေးပါတယ်။
- Agent Harness (အေဂျင့် ဟားနက်စ်): Language model တစ်ခုရဲ့ ဘေးပတ်လည်မှာ ရှိတဲ့ orchestration layer ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: AI model သက်သက်က အလုပ်မလုပ်နိုင်ပါဘူး။ Agent Harness က prompts တွေ စီမံတာ၊ tool တွေ နှိုးတာ၊ စည်းကမ်း (policy) တွေ စစ်တာနဲ့ အလုပ်တစ်ခု ပြီးတဲ့အထိ loop ပတ်တာတွေကို တာဝန်ယူပေးပါတယ်။
- Agent Heartbeat (အေဂျင့် ဟတ်ဘိစ်): အေဂျင့်တစ်ခု အလုပ်လုပ်နေဆဲ ဟုတ်မဟုတ် စစ်ဆေးတဲ့ စနစ်ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အေဂျင့်က database တစ်ခုမှာ timestamp ကို အချိန်မှန် update လုပ်ပေးခြင်းအားဖြင့် monitoring system က အေဂျင့် စက်ရပ်သွားတာ (crashed) ကို သိနိုင်ပါတယ်။ အဲ့ဒီအခါ ကျန်နေတဲ့ အလုပ်တွေကို တခြားအေဂျင့်ဆီ အလိုအလျောက် ပြန်ခွဲပေးနိုင်ပါတယ်။
- Agent Skills (အေဂျင့် စကေးလ်): လိုအပ်မှသာ အေဂျင့်ရဲ့ context window ထဲကို ထည့်သွင်းအသုံးပြုတဲ့ ညွှန်ကြားချက်များ (instruction sets) ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Tool တွေ အများကြီးရဲ့ definition တွေကို context window ထဲ အမြဲထည့်ထားရင် နေရာကုန် (token ကုန်) ပါမယ်။ Agent Skills ကတော့ သက်ဆိုင်ရာ အလုပ်နဲ့ တွဲဖက်တဲ့ ညွှန်ကြားချက်တွေကို လိုအပ်တဲ့ အချိန်မှသာ load လုပ်တဲ့အတွက် တွက်ချက်မှု ကုန်ကျစရိတ်ကို လျှော့ချပေးပါတယ်။
- Agent (အေဂျင့်): Observe-think-act loop နဲ့ tool calling ကို အသုံးပြုပြီး အလုပ်တွေကို မိမိဘာသာ ပြီးမြောက်အောင် လုပ်ဆောင်နိုင်တဲ့ AI စနစ်။
- အသေးစိတ်ရှင်းလင်းချက်: ရိုးရိုး chatbot နဲ့မတူဘဲ အေဂျင့်က ပတ်ဝန်းကျင်ကို လေ့လာတယ် (observe)၊ ဘာလုပ်ရမလဲ စဉ်းစားတယ် (think)၊ ပြီးရင် tool တွေ သုံးပြီး လက်တွေ့လုပ်ဆောင်တယ် (act)။ ဒီ loop ကို သုံးပြီး လူရဲ့ ခိုင်းစေမှု တစ်ခုတည်းနဲ့ အဆင့်ဆင့် အလုပ်တွေကို ပြီးအောင် လုပ်ပါတယ်။
- AGENTS.md: AI coding agent တွေ ဖတ်နိုင်အောင် ပရောဂျက်ရဲ့ build steps, testing commands နဲ့ coding conventions တွေကို ရေးသားထားတဲ့ markdown ဖိုင် စံနှုန်းတစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒါဟာ မတူညီတဲ့ coding tools တွေ အားလုံး နားလည်နိုင်တဲ့ ပရောဂျက် လမ်းညွှန်ချက် ဖိုင်ဖြစ်ပါတယ်။ အေဂျင့်တစ်ခု ပရောဂျက်ထဲ ရောက်လာရင် ဘာလုပ်ရမလဲဆိုတာ ဒီဖိုင်ကို ကြည့်ပြီး ချက်ချင်း သိနိုင်ပါတယ်။
- Attention Weight Matrix (အတန်ရှန် ဝိတ် မေးထရစ်): စာသားတစ်ခုထဲမှာ နေရာတစ်ခုက တခြားနေရာတစ်ခုကို ဘယ်လောက် အာရုံစိုက်သလဲဆိုတာကို ဖော်ပြတဲ့ matrix တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Matrix ထဲက အကွက်တိုင်းက စာလုံးတစ်လုံးနဲ့ တစ်လုံးကြား ဆက်နွယ်မှုကို ဖော်ပြပါတယ်။ အတန်း (rows) တွေဟာ input sequence တစ်ခုလုံးအပေါ် မူတည်တဲ့ probability distributions တွေ ဖြစ်လာပါတယ်။
- Attention Weights (အတန်ရှန် ဝိတ်များ): စာသားတစ်ခုရဲ့ ရလဒ် ထွက်လာဖို့အတွက် နေရာတစ်ခုချင်းစီက ဘယ်လောက်အထိ အရေးပါသလဲဆိုတာကို သတ်မှတ်ပေးတဲ့ ရမှတ်များ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒါတွေဟာ normalized scores တွေ ဖြစ်ပြီး input sequence ထဲက ဘယ်နေရာတွေက output အတွက် အထောက်အကူ အဖြစ်ဆုံးလဲဆိုတာကို သတ်မှတ်ပေးပါတယ်။
- Attention (အတန်ရှန်): Neural network တွေက ရလဒ်တစ်ခု ထုတ်ပေးတဲ့အခါ input ထဲက သက်ဆိုင်ရာ အစိတ်အပိုင်းတွေကို အာရုံစိုက်နိုင်အောင် လုပ်ဆောင်ပေးတဲ့ စနစ်။
- အသေးစိတ်ရှင်းလင်းချက်: ၂၀၁၇ ခုနှစ် "Attention Is All You Need" စာတမ်းကနေ စတင်ခဲ့တာပါ။ AI က စာကြောင်းရှည်တွေကို ဖတ်တဲ့အခါ ရှေ့နားက စာနဲ့ နောက်နားက စာ ဘယ်လို ပတ်သက်သလဲဆိုတာကို အာရုံစိုက်နိုင်စေပါတယ်။
- Autograd (အော်တိုဂရက်): Automatic differentiation - gradient တွေကို အလိုအလျောက် တွက်ချက်ပေးတဲ့ စနစ်။
- အသေးစိတ်ရှင်းလင်းချက်: လုပ်ဆောင်ချက် (operations) တွေကို မှတ်သားထားပြီး chain rule ကို နောက်ပြန် အသုံးပြုကာ gradients တွေကို တွက်ချက်ပေးပါတယ်။ Neural network သင်ကြားမှုအတွက် အရေးပါတဲ့ အစိတ်အပိုင်း ဖြစ်ပါတယ်။
- Backpropagation (ဘက်ပရိုပါဂေးရှင်း): Computation graph ထဲမှာ gradients တွေကို တွက်ချက်ပေးတဲ့ algorithm ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Chain rule ကို သုံးပြီး error signal တွေကို computation graph ထဲမှာ နောက်ပြန် (backward) စီးဆင်းစေပါတယ်။ ရရှိလာတဲ့ gradients တွေနဲ့ model ရဲ့ weights တွေကို update လုပ်ပါတယ်။
- Batch Normalization (ဘက်ချ် နော်မယ်လိုက်ဇေးရှင်း): activations တွေကို batch dimension အလိုက် ပုံမှန်ဖြစ်အောင် ညှိပေးတဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Learnable scale နဲ့ shift parameters တွေကို သုံးပြီး activations တွေကို normalizes လုပ်ပါတယ်။ ဒါဟာ deep network တွေ သင်ကြားတဲ့အခါ တည်ငြိမ်မှု ရှိစေပြီး ပိုမြန်မြန် သင်ကြားနိုင်စေပါတယ်။
- Beads (ဘိဒ်စ်): AI coding agent တွေအတွက် git အခြေခံ Issue tracker တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒါဟာ distributed ဖြစ်ပြီး graph ပုံစံနဲ့ အလုပ်လုပ်ပါတယ်။ အလုပ်တွေရဲ့ ဆက်နွယ်မှု (dependencies) တွေကို persistent structured memory အဖြစ် git repository ထဲမှာ သိမ်းဆည်းပေးပါတယ်။
- BERT: Bidirectional Encoder Representations from Transformers - Transformer ရဲ့ encoder သက်သက်ကို အသုံးပြုထားတဲ့ model တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: စာသားတွေကို masked language modelling နဲ့ next sentence prediction နည်းလမ်းတွေ သုံးပြီး ကြိုတင်သင်ကြား (pre-trained) ထားတာ ဖြစ်ပါတယ်။ စာသားတွေရဲ့ အဓိပ္ပာယ်ကို နက်နက်ရှိုင်းရှိုင်း နားလည်ဖို့ သုံးပါတယ်။
- Bigram (ဘိုင်ဂရမ်): လက်ရှိ စာလုံး (token) အပေါ် မူတည်ပြီး နောက်စာလုံးကို ခန့်မှန်းတဲ့ အရိုးရှင်းဆုံး language model တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: စာလုံးတွဲ သို့မဟုတ် စာလုံးတစ်လုံးချင်းစီရဲ့ အကြိမ်ရေ (frequency) ကို ကြည့်ပြီး နောက်ဘာလာမလဲ ခန့်မှန်းတဲ့ model ဖြစ်ပါတယ်။
- Bombadil (ဘွန်ဘာဒေး): Web application တွေရဲ့ မှန်ကန်မှုကို အလိုအလျောက် စစ်ဆေးပေးတဲ့ UI testing framework တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Antithesis က ထုတ်လုပ်တာဖြစ်ပြီး web apps တွေကို သူ့ဘာသာ လှည့်ပတ်ကြည့်ရှုကာ သတ်မှတ်ထားတဲ့ စည်းကမ်း (correctness invariants) တွေနဲ့ ညီမညီ စစ်ဆေးပေးပါတယ်။
- Byte Pair Encoding (BPE): အသုံးအများဆုံး စာလုံးတွဲတွေကို token တစ်ခုတည်း အဖြစ် ပေါင်းစည်းတဲ့ subword tokenization နည်းလမ်းတစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အကြိမ်ရေ အများဆုံး စာလုံးတွဲတွေကို ထပ်ခါတလဲလဲ ပေါင်းစည်းခြင်းအားဖြင့် vocabulary တစ်ခုကို တည်ဆောက်ပါတယ်။ ဒါဟာ စာလုံးအသစ်တွေကိုပါ ကိုင်တွယ်နိုင်စွမ်း ရှိစေပါတယ်။
- Causal Masking (ကော့ဇယ် မတ်စ်ကင်း): Language model တွေ အနာဂတ်မှာ လာမယ့် စာလုံးတွေကို ကြိုမမြင်အောင် ပိတ်ပင်ထားတဲ့ စနစ်ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အာရုံစိုက်မှု (attention) ကို အနာဂတ် နေရာတွေဆီ မရောက်အောင် တားဆီးပေးပါတယ်။ ဒါမှသာ language model က စာသားတွေကို တစ်လုံးချင်းစီ ခန့်မှန်းတဲ့ (autoregressive) ဂုဏ်သတ္တိကို ထိန်းသိမ်းနိုင်မှာ ဖြစ်ပါတယ်။
- Cell-Level Merge (ဆဲလ်-လယ်ဗယ် မာ့ဂျ်): Merge လုပ်တဲ့အခါ field တစ်ခုချင်းစီ (cell) အလိုက် conflict တွေကို ဖြေရှင်းတဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: စာကြောင်းအလိုက် (line) မဟုတ်ဘဲ အကွက်အလိုက် conflict ဖြေရှင်းတဲ့အတွက် လူအများကြီးက record တစ်ခုတည်းရဲ့ မတူညီတဲ့ fields တွေကို တစ်ပြိုင်တည်း ပြင်ဆင်နိုင်စေပါတယ်။
- Chain Rule (ချိန် ရူးလ်): Composed function တစ်ခုရဲ့ derivative ကို တွက်ချက်တဲ့ သင်္ချာနည်းဥပဒေဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အဆင့်ဆင့် ချိတ်ဆက်ထားတဲ့ function တစ်ခုရဲ့ derivative ကို တွက်ချက်ရာမှာ အဆင့်တိုင်းရဲ့ derivative တွေကို မြှောက်ပေးရပါတယ်။ ဒါဟာ backpropagation ရဲ့ အခြေခံ သင်္ချာ ဖြစ်ပါတယ်။
- Chrome Extension (ခရုမ်း အက်စ်တန်ရှန်): Google Chrome browser ထဲမှာ browser ရဲ့ လုပ်ဆောင်ချက်တွေကို ပြောင်းလဲဖို့ ဒါမှမဟုတ် အသစ်ထည့်ဖို့ အသုံးပြုတဲ့ app အသေးလေးများ။
- CLAUDE.md: Claude Code အတွက် ပရောဂျက်ရဲ့ architecture နဲ့ workflow ညွှန်ကြားချက်တွေကို သိမ်းဆည်းထားတဲ့ config ဖိုင် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒီဖိုင်ကို Claude Code က အလိုအလျောက် load လုပ်ပြီး codebase ရဲ့ စည်းကမ်းတွေ၊ build commands တွေနဲ့ architecture တွေကို နားလည်အောင် အသုံးပြုပါတယ်။
- Collision-Free ID (ကော်လစ်ရှင်-ဖရီး အိုင်ဒီ): Content hashing ကို အသုံးပြုပြီး အိုင်ဒီနှစ်ခု ထပ်မသွားအောင် ပြုလုပ်တဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အိုင်ဒီတွေကို content ရဲ့ hash အပေါ် မူတည်ပြီး ထုတ်ပေးတဲ့အတွက် သီးခြားစီ ဖန်တီးထားတဲ့ items တွေလည်း အိုင်ဒီတူသွားဖို့ အခွင့်အလမ်း အလွန်နည်းပါးပါတယ်။
- Compaction (ကွန်ပက်ရှင်): အေဂျင့်ရဲ့ စကားပြောမှတ်တမ်းထဲက ဟောင်းနေတဲ့ စာတွေကို အကျဉ်းချုပ်တာ ဒါမှမဟုတ် ဖျက်ထုတ်တဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Context window ထဲမှာ နေရာလွတ်အောင် လုပ်ဆောင်တဲ့ နည်းလမ်းတစ်ခု ဖြစ်ပါတယ်။ အရေးကြီးတဲ့ အချက်တွေကို အကျဉ်းချုပ် သိမ်းထားပြီး ကျန်တာတွေကို ဖယ်ရှားပစ်ပါတယ်။
- Computation Graph (ကွန်ပျူတေးရှင်း ဂရပ်ဖ်): လုပ်ဆောင်ချက် တစ်ခုချင်းစီကို မှတ်တမ်းတင်ထားတဲ့ graph ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒါဟာ directed acyclic graph (DAG) ဖြစ်ပြီး တွက်ချက်မှုတိုင်းကို မှတ်တမ်းတင်ထားတဲ့အတွက် backpropagation နဲ့ gradient တွက်ချက်မှုကို လွယ်ကူစေပါတယ်။
- Context Engineering (ကွန်တက်စ် အင်ဂျင်နီယာရင်း): AI ဆီက အကောင်းဆုံး ရလဒ် ရဖို့အတွက် context window ထဲကို ထည့်သွင်းမယ့် အချက်အလက်တွေကို စီစဉ်စီမံခြင်း။
- အသေးစိတ်ရှင်းလင်းချက်: ဘယ်အချက်အလက်တွေက အရေးကြီးလဲ၊ ဘယ်လို ပုံစံနဲ့ ပြသရမလဲဆိုတာတွေကို ဒီဇိုင်းဆွဲခြင်းအားဖြင့် AI ရဲ့ အဖြေကို ပိုမိုမှန်ကန် တည်ငြိမ်စေပါတယ်။
- Context Window (ကွန်တက်စ် ဝင်းဒိုး): Language model တစ်ခု တစ်ကြိမ်တည်းမှာ လက်ခံနိုင်တဲ့ အများဆုံး token အရေအတွက် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒီအရေအတွက်ထဲမှာ input prompt ရော model က ပြန်ထုတ်ပေးမယ့် output ရော နှစ်ခုလုံး ပါဝင်ပါတယ်။
- Correctness Invariant (ကော်ရက်နက်စ် အင်ဗေးရီးယန့်): စနစ်တစ်ခုရဲ့ အခြေအနေတိုင်းမှာ အမြဲတမ်း မှန်ကန်နေရမယ့် ဂုဏ်သတ္တိ (property) ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: စနစ်တစ်ခုရဲ့ မှန်ကန်တဲ့ လုပ်ဆောင်မှုကို တရားဝင် သတ်မှတ်ချက် (formal specification) အဖြစ် အသုံးပြုပါတယ်။
- Cross-Entropy (ခရော့စ်-အန်ထရိုပီ): ခန့်မှန်းချက်နဲ့ တကယ့်ရလဒ် ဘယ်လောက်အထိ တူညီသလဲဆိုတာကို တိုင်းတာတဲ့ loss function ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Classification နဲ့ language modeling တွေမှာ အသုံးအများဆုံး ဖြစ်ပြီး ဖြစ်နိုင်ခြေ ဖြန့်ကျက်မှု (probability distribution) တွေကို နှိုင်းယှဉ်ပါတယ်။
- Decision Boundary (ဒီစီရှင် ဘောင်ဒရီ): Classifier တစ်ခုက input တွေကို class ခွဲခြားတဲ့ မျဉ်း သို့မဟုတ် မျက်နှာပြင် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: input space ထဲမှာ model ရဲ့ ခန့်မှန်းချက် တစ်မျိုးကနေ နောက်တစ်မျိုး ပြောင်းလဲသွားတဲ့ နေရာ ဖြစ်ပါတယ်။ Model က သင်ယူထားတဲ့ အသိကို ဂျီဩမေတြီ နည်းလမ်းနဲ့ မြင်ကြည့်တာ ဖြစ်ပါတယ်။
- Differential Rendering (ဒီဖရန်ရှယ် ရန်ဒါရင်း): အရင်ထွက်ထားတဲ့ ရလဒ်နဲ့ လက်ရှိရလဒ်ကို နှိုင်းယှဉ်ပြီး ပြောင်းလဲသွားတဲ့ အစိတ်အပိုင်းတွေကိုပဲ update လုပ်တဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: တစ်ပြင်လုံးကို အသစ်ပြန်မဆွဲဘဲ ပြောင်းလဲသွားတဲ့ နေရာလေးတွေကိုပဲ ပြင်တဲ့အတွက် ပိုမိုမြန်ဆန် စွမ်းရည်ထက်မြက်စေပါတယ်။
- Dilated Convolution (ဒိုင်လေးတက် ကွန်ဗိုလူးရှင်း): parameter အရေအတွက် မတိုးဘဲ ပိုမိုကျယ်ပြန့်တဲ့ နေရာတွေကို မြင်နိုင်အောင် gap တွေ ထည့်သွင်းထားတဲ့ convolution နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: WaveNet လိုမျိုး model တွေမှာ အဓိက သုံးပါတယ်။ parameter တူတူပဲကို ပိုကျယ်တဲ့ ဧရိယာက အချက်အလက်တွေကို ယူနိုင်စေပါတယ်။
- Embedding (အမ်ဘတ်ဒင်း): စာလုံး (token) တွေကို ကိန်းဂဏန်း vector တွေအဖြစ် ပြောင်းလဲထားတဲ့ ကိုယ်စားပြုချက် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒါဟာ model က သင်ယူထားတဲ့ dense vector ကိုယ်စားပြုချက် ဖြစ်ပြီး အဓိပ္ပာယ်တူတဲ့ စာလုံးတွေကို vector space ထဲမှာ တစ်နေရာတည်း စုစည်းပေးပါတယ်။
- Ephemeral Work Item (အဖီးမရယ် ဝပ်ခ် အိုက်တမ်): ခဏတာပဲ သုံးပြီး ဖျက်ပစ်မယ့် အလုပ်တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒါဟာ local database ထဲမှာပဲ ရှိနေပြီး remote ကို sync လုပ်ဖို့ မလိုပါဘူး။ အလုပ်ပြီးသွားရင် အလိုအလျောက် ဖျက်ပစ်ပါတယ်။
- Exclusive Lock Protocol (အက်စ်ကလူဆစ် လော့ခ် ပရိုတိုကော): Tool တစ်ခုက database ကို claim လုပ်ထားရင် တခြား tool တွေ ဝင်မနှောင့်ယှက်အောင် ပိတ်ပင်ထားတဲ့ စနစ်။
- အသေးစိတ်ရှင်းလင်းချက်: cooperative file-based locking နည်းလမ်းဖြစ်ပြီး အလုပ်တွေ ထပ်မသွားအောင် ဒါမှမဟုတ် data မပျက်စီးအောင် ကာကွယ်ပေးပါတယ်။
- Finite-State Machine (ဖိုင်နိုက်-စတိတ် မရှင်း): သတ်မှတ်ထားတဲ့ state တွေနဲ့ rules တွေအပေါ် မူတည်ပြီး အလုပ်လုပ်တဲ့ ပုံစံတစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: sequential decision-making တွေကို model လုပ်ဖို့ သုံးပါတယ်။ input တစ်ခု ရရင် လက်ရှိ state ကနေ နောက် state တစ်ခုကို စည်းကမ်းအတိုင်း ပြောင်းလဲသွားပါတယ်။
- Follow-up Message (ဖော်လိုအပ် မက်ဆေ့ချ်): အေဂျင့် အလုပ်လုပ်နေတုန်း တန်းစီထားတဲ့ user message ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အေဂျင့်က လက်ရှိ အလုပ်တွေ အကုန်ပြီးမှသာ ဒီ message ကို လက်ခံပြီး အလုပ်အသစ် ပြန်စမှာ ဖြစ်ပါတယ်။
- Forward Pass (ဖော်ဝပ် ပါ့စ်): Neural network တစ်ခုထဲမှာ input data ကို ဖြတ်သန်းစေပြီး ရလဒ် ထုတ်ယူတဲ့ လုပ်ငန်းစဉ် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Computation graph ကို တည်ဆောက်တဲ့ အဆင့်ဖြစ်ပြီး နောက်ပိုင်းမှာ backpropagation အတွက် အသုံးဝင်ပါတယ်။
- Git Hook (ဂစ် ဟွတ်ခ်): Git workflow ရဲ့ အဆင့်အချို့မှာ အလိုအလျောက် အလုပ်လုပ်တဲ့ script များ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: commit မလုပ်ခင်၊ merge လုပ်ပြီးနောက် ဒါမှမဟုတ် push မလုပ်ခင် စတာတွေမှာ အလိုအလျောက် validation တွေ၊ automation တွေကို လုပ်ဆောင်ပေးပါတယ်။
- GPT: Generative Pre-trained Transformer - စာသားတွေ ထုတ်လုပ်ပေးတဲ့ decoder-only model များ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ရှေ့က စာလုံးတွေအပေါ် မူတည်ပြီး နောက်လာမယ့် စာလုံးကို ခန့်မှန်းခြင်းအားဖြင့် စာသားတွေကို ဖန်တီးပေးပါတယ်။
- Gradient Descent (ဂရယ်ဒီယန့် ဒီဆင့်): Loss function ကို အနည်းဆုံးဖြစ်အောင် parameter တွေကို ညှိယူတဲ့ algorithm ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Gradients တွေကို အသုံးပြုပြီး loss function နည်းသွားမယ့် ဘက်ကို တဖြည်းဖြည်းချင်း ခြေလှမ်းလှမ်းပြီး parameters တွေကို ပြင်ဆင်သွားတာ ဖြစ်ပါတယ်။
- Gradient Highway (ဂရယ်ဒီယန့် ဟိုင်းဝေး): Gradient တွေ နောက်ပြန်စီးဆင်းရာမှာ အတားအဆီးမရှိ တိုက်ရိုက်သွားနိုင်တဲ့ လမ်းကြောင်း ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: derivative တန်ဖိုး 1 ရှိတဲ့ လမ်းကြောင်းတွေ ဖြစ်ပြီး deep architectures တွေမှာ gradients တွေ ပျောက်ကွယ်သွားတာ (vanishing gradients) ကို တားဆီးပေးပါတယ်။
- Graph Issue Tracker (ဂရပ်ဖ် အစ်ရှူး ထရက်ကာ): အလုပ်တွေကို node တွေအဖြစ်၊ ပတ်သက်မှုတွေကို edge တွေအဖြစ် graph ပုံစံနဲ့ သိမ်းဆည်းတဲ့ issue tracker ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: dependency-aware queries တွေကို လုပ်ဆောင်နိုင်စေပါတယ်။ ဥပမာ - "ဘယ်အလုပ်တွေက အတားအဆီး မရှိ လုပ်ဖို့ အသင့်ဖြစ်နေပြီလဲ" ဆိုတာမျိုး ရှာဖွေနိုင်ပါတယ်။
- GRU: Gated Recurrent Unit - LSTM ထက် ပိုမိုရိုးရှင်းတဲ့ RNN variant တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: parameter နည်းပေမယ့် LSTM လိုပဲ ရှည်လျားတဲ့ ဆက်နွယ်မှုတွေကို မှတ်မိနိုင်စွမ်း ရှိပါတယ်။
- Hierarchical Issue ID (ဟာရာခီကယ် အစ်ရှူး အိုင်ဒီ): Parent-child ဆက်နွယ်မှုကို အိုင်ဒီထဲမှာတင် မြင်နိုင်အောင် ရေးသားတဲ့ ပုံစံ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဥပမာ - bd-a3f8.1.1 ဆိုရင် ဒါဟာ task 1 ရဲ့ sub-task 1 ဖြစ်တယ်ဆိုတာ ချက်ချင်း သိနိုင်ပါတယ်။
- Hinge Loss (ဟင့်ချ် လော့စ်): Class ခွဲခြားရာမှာ margin မလုံလောက်တဲ့ ခန့်မှန်းချက်တွေကို အပြစ်ပေးတဲ့ loss function ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: SVM တွေမှာ အဓိက သုံးတဲ့ objective function ဖြစ်ပါတယ်။
- Incremental Learning (အင်ကရီမန်တဲလ် လားနင်း): အစကနေ အကုန်အသစ်ပြန်မလုပ်ဘဲ ရှိပြီးသား အပေါ်မှာ အနည်းငယ်စီ ပြင်ဆင်သင်ယူတဲ့ ပုံစံ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Residual networks တွေရဲ့ ဂုဏ်သတ္တိတစ်ခု ဖြစ်ပြီး layer တစ်ခုချင်းစီက ရှေ့က ရလဒ်အပေါ် အနည်းငယ်စီပဲ ပြင်ဆင် ဖြည့်စွက်သွားပါတယ်။
- Inference (အင်ဖရင့်စ်): သင်ကြားပြီးသား model တစ်ခုကို input အသစ်တွေ ပေးပြီး ရလဒ် ထုတ်ယူတဲ့ လုပ်ငန်းစဉ် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒါဟာ model training နဲ့ မတူပါဘူး။ weights တွေကို update မလုပ်တော့ဘဲ လက်တွေ့ အသုံးပြုတဲ့ အဆင့် ဖြစ်ပါတယ်။
- Issue Compaction (အစ်ရှူး ကွန်ပက်ရှင်): အေဂျင့်ရဲ့ context ဝန်မပိအောင် ပြီးသွားတဲ့ အလုပ်ဟောင်းတွေကို AI နဲ့ အကျဉ်းချုပ် သိမ်းဆည်းတဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အချက်အလက် အရှည်ကြီးတွေကို မလိုတော့ရင် ဖယ်ပစ်ပြီး graph structure နဲ့ အကျဉ်းချုပ်ကိုပဲ သိမ်းထားခြင်းအားဖြင့် context window ကို ချွေတာပါတယ်။
- Issue Federation (အစ်ရှူး ဖက်ဒရေးရှင်း): အသင်းအဖွဲ့ အသီးသီးက ကိုယ့် database နဲ့ကိုယ် ရှိနေပြီး လိုအပ်တဲ့ အလုပ်တွေကိုပဲ အချင်းချင်း sync လုပ်တဲ့ စနစ်ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: peer-to-peer protocol ဖြစ်ပြီး တစ်ဖက်နဲ့တစ်ဖက် database-level remotes တွေ သုံးပြီး အလုပ်တွေကို ဝေမျှဆောင်ရွက်နိုင်ပါတယ်။
- JSON Schema: JSON ဖိုင်တွေရဲ့ တည်ဆောက်ပုံကို သတ်မှတ်ပေးတဲ့ ပုံစံ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Language model တွေ သုံးမယ့် tool interfaces တွေကို သတ်မှတ်ဖို့နဲ့ validate လုပ်ဖို့ သုံးပါတယ်။
- JSON: JavaScript Object Notation - ကွန်ပျူတာရော လူပါ ဖတ်နိုင်တဲ့ ပေါ့ပါးတဲ့ data format တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Key-value pairs နဲ့ ordered lists တွေကို သုံးပြီး structured data တွေကို ဖော်ပြပါတယ်။
- JSONL Portability Layer: Operational database ရဲ့ အချက်အလက်တွေကို git နဲ့ သယ်ယူလို့ရအောင် JSONL ဖိုင်အဖြစ် ပြောင်းလဲပေးတဲ့ အလွှာ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: dual-format strategy ဖြစ်ပါတယ်။ database က operational အတွက် သုံးပြီး JSONL ကတော့ git clones တွေကြား သယ်ယူဖို့ သုံးပါတယ်။
- LayerNorm: Layer Normalization - deep network သင်ကြားမှု တည်ငြိမ်အောင် activations တွေကို ပုံမှန်ဖြစ်အောင် ညှိပေးတဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: features တွေအလိုက် activations တွေကို centering နဲ့ scaling လုပ်ပေးပါတယ်။
- Learning Rate (လားနင်း ရိတ်): သင်ကြားတဲ့အခါ parameter တွေကို ဘယ်လောက်အထိ အပြောင်းအလဲ လုပ်မလဲဆိုတာကို ထိန်းချုပ်တဲ့ တန်ဖိုး ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: parameter update step ရဲ့ အရွယ်အစားကို ထိန်းချုပ်ပါတယ်။ အရမ်းကြီးရင် မတည်မငြိမ် ဖြစ်တတ်ပြီး အရမ်းသေးရင် သင်ယူမှု နှေးတတ်ပါတယ်။
- Linear Algebra (လင်နီယာ အယ်လ်ဂျီဘရာ): Vectors, matrices တွေနဲ့ အလုပ်လုပ်တဲ့ သင်္ချာဘာသာရပ် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဒါဟာ neural networks နဲ့ transformer architectures တွေရဲ့ အခြေခံ သင်္ချာဘာသာစကား ဖြစ်ပါတယ်။
- Linear Regression (လင်နီယာ ရီဂရက်ရှင်): Variables တွေကြားက ဆက်နွယ်မှုကို မျဉ်းဖြောင့်ပုံစံနဲ့ ဖော်ပြတဲ့ အရိုးရှင်းဆုံး သင်ယူမှု algorithm ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: neural network training ရဲ့ ရှေ့ပြေး သင်္ချာသဘောတရား ဖြစ်ပါတယ်။
- Linear Temporal Logic (လင်နီယာ တန်ပိုရယ် လောဂျစ်): အချိန်နဲ့အမျှ ပြောင်းလဲသွားတဲ့ အခြေအနေတွေကို စစ်ဆေးတဲ့ logic စနစ် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: 'always' နဲ့ 'eventually' စတဲ့ operators တွေ သုံးပြီး စနစ်တစ်ခုရဲ့ လုပ်ဆောင်ချက်တွေကို သတ်မှတ် စစ်ဆေးပါတယ်။
- Logits (လိုဂျစ်စ်): Model ကနေ ထွက်လာတဲ့ raw score များ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Softmax မလုပ်ခင် ထွက်လာတဲ့ တန်ဖိုးတွေ ဖြစ်ပြီး probability မဟုတ်သေးပါဘူး။
- Loss Function (လော့စ် ဖန်ရှင်): Model ရဲ့ ခန့်မှန်းချက် ဘယ်လောက်အထိ မှားသလဲဆိုတာကို တွက်ချက်တဲ့ ကိန်းဂဏန်း ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: Training လုပ်တဲ့အခါ ဒီ ကိန်းဂဏန်း အနည်းဆုံး ဖြစ်အောင် အဓိက ထားလုပ်ဆောင်ရပါတယ်။
- LSTM: Long Short-Term Memory - ရှည်လျားတဲ့ ဆက်နွယ်မှုတွေကို မှတ်မိနိုင်တဲ့ RNN variant တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: gating mechanisms တွေ သုံးပြီး ရှည်လျားတဲ့ sequences တွေကြားက dependencies တွေကို သင်ယူနိုင်ပါတယ်။
- manifest.json: Browser extension တစ်ခုရဲ့ အချက်အလက်တွေနဲ့ ခွင့်ပြုချက်တွေကို သတ်မှတ်ပေးတဲ့ config ဖိုင်။
- Mathematical Notation (သင်္ချာ သင်္ကေတများ): Machine learning ဖော်မြူလာတွေမှာ သုံးတဲ့ symbols, operators နဲ့ conventions များ။
- Matrix Theory (မေးထရစ် သီအိုရီ): Matrix တွက်ချက်မှုဆိုင်ရာ သီအိုရီများ။
- အသေးစိတ်ရှင်းလင်းချက်: Matrix multiplication နဲ့ transposition တွေဟာ transformer models တွေရဲ့ အခြေခံ တွက်ချက်မှုတွေ ဖြစ်ပါတယ်။
- Model Context Protocol (MCP): AI အေဂျင့်တွေ အပြင်က data တွေနဲ့ ချိတ်ဆက်ဖို့ အသုံးပြုတဲ့ protocol တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: client-server architecture ကို သုံးပြီး AI အေဂျင့်ထဲကို context တွေ ထည့်သွင်းပေးနိုင်တဲ့ open standard ဖြစ်ပါတယ်။
- Monad (မိုနက်): design pattern တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: values တွေကို context တစ်ခုထဲမှာ ထုပ်ပိုးထားပြီး အဆင့်ဆင့် လုပ်ဆောင်ချက်တွေကို composable ဖြစ်အောင် စီစဉ်ပေးပါတယ်။
- Monorepo (မိုနိုရီပို): ပရောဂျက် အများကြီးကို repo တစ်ခုတည်းမှာ စုစည်းထားခြင်း။
- အသေးစိတ်ရှင်းလင်းချက်: ဗားရှင်း ထိန်းချုပ်ရတာ လွယ်ကူစေဖို့နဲ့ ပရောဂျက်တွေကြား ချိတ်ဆက်မှုကို စီမံရ လွယ်အောင် လုပ်ဆောင်တဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- Multi-Layer Perceptron (MLP): stacked layers တွေ ပါဝင်တဲ့ အခြေခံ neural network တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: nonlinear patterns တွေကို သင်ယူနိုင်တဲ့ အခြေခံအကျဆုံး neural network architecture ဖြစ်ပါတယ်။
- Neuron (နူရွန်): Neural network တစ်ခုရဲ့ အခြေခံ တွက်ချက်မှု ယူနစ် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: input တွေကို weights တွေနဲ့ မြှောက်ပြီး bias ပေါင်းကာ activation function ထဲ ဖြတ်သန်းစေပါတယ်။
- Next-Token Prediction (နက်စ်-တိုကင် ပရီဒစ်ရှင်): ရှေ့စာလုံးတွေအပေါ် မူတည်ပြီး နောက်စာလုံးကို ခန့်မှန်းအောင် သင်ကြားတဲ့ ပုံစံ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: language model တွေရဲ့ အဓိက သင်ကြားမှု ရည်မှန်းချက် (training objective) ဖြစ်ပါတယ်။
- NLP: Natural Language Processing - လူသားတွေရဲ့ ဘာသာစကားကို ကွန်ပျူတာ နားလည်အောင် လုပ်ဆောင်ပေးတဲ့ AI နယ်ပယ်။
- အသေးစိတ်ရှင်းလင်းချက်: ဘာသာစကား နားလည်ခြင်း၊ ဘာသာပြန်ခြင်းနဲ့ စာသားများ ထုတ်လုပ်ခြင်း စတာတွေ ပါဝင်ပါတယ်။
- One-Hot Encoding (ဝမ်း-ဟော့ အင်ကိုဒင်း): အချက်အလက်တွေကို 0 နဲ့ 1 တွေ ပါဝင်တဲ့ vector အဖြစ် ပြောင်းလဲတဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: categories တွေကို ကိန်းဂဏန်း ပြောင်းတဲ့ အရိုးရှင်းဆုံး နည်းလမ်းဖြစ်ပါတယ်။
- Overfitting (အိုဗာဖစ်တင်း): Model က သင်ကြားထားတဲ့ data တွေကိုပဲ အလွတ်ကျက်ထားတဲ့ အခြေအနေ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: training data ပေါ်မှာ အရမ်းတော်ပေမယ့် data အသစ်တွေ ပေးရင် မလုပ်နိုင်တော့တဲ့ အခြေအနေ ဖြစ်ပါတယ်။
- Probability Theory (ပရိုဘာဘီလစ်တီး သီအိုရီ): ဖြစ်နိုင်ခြေတွေကို တွက်ချက်တဲ့ သင်္ချာဘာသာရပ်။
- အသေးစိတ်ရှင်းလင်းချက်: language model တွေ စာသားထုတ်လုပ်တဲ့အခါ ဒီသီအိုရီ အခြေခံတွေနဲ့ လုပ်ဆောင်တာ ဖြစ်ပါတယ်။
- Prompt Injection (ပရွမ်း အင်ဂျက်ရှင်): AI ကို မလုပ်သင့်တဲ့ အလုပ်တွေ လုပ်ခိုင်းဖို့ user က လှည့်စားပြီး ခိုင်းစေခြင်း။
- အသေးစိတ်ရှင်းလင်းချက်: AI model ရဲ့ အပြုအမူကို input မှတစ်ဆင့် မရည်ရွယ်ဘဲ ပြောင်းလဲပစ်တဲ့ တိုက်ခိုက်မှု တစ်မျိုး ဖြစ်ပါတယ်။
- Property-Based Testing: သတ်မှတ်ထားတဲ့ ဂုဏ်သတ္တိတွေ မှန်မမှန်ကို input တွေ အများကြီးနဲ့ အလိုအလျောက် စစ်ဆေးတဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: developers တွေက စည်းကမ်းတွေပဲ သတ်မှတ်ပေးပြီး test engine က မတူညီတဲ့ အခြေအနေတွေကို အလိုအလျောက် ဖန်တီးစစ်ဆေးပါတယ်။
- Provider Registry (ပရိုဗိုက်ဒါ ရက်ဂျစ်စထရီ): startup မှာ implementations တွေကို မှတ်ပုံတင်ပြီး runtime မှာ ပြန်ရှာသုံးတဲ့ design pattern။
- Ralph Wiggum Loop: အေဂျင့်တစ်ခုက အလုပ်တစ်ခုစီကို context သန့်သန့်နဲ့ အလုပ်လုပ်တဲ့ ပုံစံ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: loop တစ်ခုစီမှာ specifications တွေကို ဖတ်တယ်၊ အလုပ်တစ်ခု ပြီးအောင်လုပ်တယ်၊ ပြီးရင် context ကို ဖျက်ပြီး အသစ်ပြန်စပါတယ်။
- Ready Work Query: dependencies တွေ ကင်းရှင်းပြီး လုပ်ဖို့ အသင့်ဖြစ်နေတဲ့ အလုပ်တွေကို ရှာဖွေတဲ့ query ဖြစ်ပါတယ်။
- Regularization (ရက်ဂူလာရိုက်ဇေးရှင်း): Overfitting မဖြစ်အောင် model ရဲ့ ရှုပ်ထွေးမှုကို ကန့်သတ်တဲ့ နည်းလမ်းများ ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: model က ပုံသေ အလွတ်ကျက်တာမျိုး မဟုတ်ဘဲ အထွေထွေ ပုံစံတွေကို သင်ယူနိုင်အောင် ကူညီပေးပါတယ်။
- ReLU: Rectified Linear Unit - nonlinear activation function တစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အနုတ်တန်ဖိုးတွေကို 0 ပြောင်းပြီး အပေါင်းတန်ဖိုးတွေကို အရှိအတိုင်း ထားပါတယ်။ neural network တွေမှာ အသုံးအများဆုံး activation function တစ်ခု ဖြစ်ပါတယ်။
- Residual Connection (ရက်ဇီဂျူရယ် ကွန်နက်ရှင်): input ကို output ထဲ တိုက်ရိုက်ပေါင်းထည့်တဲ့ skip connection ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: deep networks တွေမှာ gradient ပြဿနာကို ဖြေရှင်းပေးပြီး ပိုမိုနက်ရှိုင်းတဲ့ networks တွေကို သင်ကြားနိုင်စေပါတယ်။
- RMSNorm: Root Mean Square Normalization - normalization နည်းလမ်းတစ်ခု ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: activations တွေကို ညှိပေးရာမှာ centering မလုပ်ဘဲ root mean square နဲ့ပဲ scaling လုပ်ပါတယ်။
- RNN: Recurrent Neural Network - sequence တွေကို state တစ်ခုနဲ့ မှတ်သားပြီး အလုပ်လုပ်တဲ့ architecture ဖြစ်ပါတယ်။
- Snake Case (စနိတ် ကေ့စ်): စာလုံးတွေကို underscore ( _ ) နဲ့ ဆက်ပြီး lowercase နဲ့ ရေးသားတဲ့ ပုံစံ ဖြစ်ပါတယ်။ (ဥပမာ - agent_skill)
- Softmax Normalization (ဆော့ဖ်မက်စ် နော်မယ်လိုက်ဇေးရှင်း): ကိန်းဂဏန်းတွေကို ပေါင်းရင် 1 ရတဲ့ probability distribution အဖြစ် ပြောင်းလဲပေးတဲ့ function ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: attention mechanisms တွေမှာ weight တွေ သတ်မှတ်ဖို့ အဓိက သုံးပါတယ်။
- Steering Message (စတီယာရင်း မက်ဆေ့ချ်): အေဂျင့် အလုပ်လုပ်နေတုန်း လမ်းကြောင်းပြောင်းခိုင်းတာတွေ လုပ်တဲ့ message ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အေဂျင့်ရဲ့ လက်ရှိ အလုပ်တွေကို ရပ်တန့်စေပြီး အသစ်ပေးတဲ့ လမ်းညွှန်မှုအတိုင်း ပြောင်းလဲစေပါတယ်။
- Stochastic Gradient Descent (SGD): Gradient descent ကို တဖြည်းဖြည်းချင်း အဆင့်ဆင့် လုပ်ဆောင်တဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- Streaming (စထရီမင်း): AI က အဖြေတွေကို တစ်လုံးချင်းစီ ချက်ချင်း ပြသပေးတဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- Sub-Agent (ဆပ်-အေဂျင့်): အဓိက အေဂျင့်ကနေ ခွဲထွက်ပြီး သီးသန့် အလုပ်တစ်ခုကို လုပ်ဆောင်တဲ့ လက်ထောက် အေဂျင့် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: memory ကို ခွဲခြားထားနိုင်ဖို့နဲ့ သီးသန့် အလုပ်တစ်ခုကိုပဲ အာရုံစိုက်နိုင်ဖို့ context window အသစ်မှာ spawn လုပ်ပါတယ်။
- Swarm Analysis (ဆွန်း အန်နာလစ်ဆစ်): အေဂျင့် ဘယ်နှစ်ခုအထိ ပြိုင်တူ အလုပ်လုပ်နိုင်မလဲဆိုတာကို တွက်ချက်တဲ့ နည်းလမ်းဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: အလုပ်တွေရဲ့ dependencies အပေါ် မူတည်ပြီး ဘယ်နှယောက် ပြိုင်တူ လုပ်လို့ရလဲဆိုတာကို ခွဲခြမ်းစိတ်ဖြာတာ ဖြစ်ပါတယ်။
- System Prompt (စစ်စတမ် ပရွမ်း): AI အေဂျင့်ရဲ့ စရိုက်၊ စွမ်းဆောင်ရည်နဲ့ စည်းကမ်းတွေကို သတ်မှတ်ပေးတဲ့ အဓိက ညွှန်ကြားချက် ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: context window ရဲ့ အစမှာ ထားရှိပြီး စကားပြောတစ်ခုလုံးရဲ့ လမ်းကြောင်းကို ထိန်းချုပ်ပေးပါတယ်။
- Tanh: Hyperbolic tangent - input တွေကို [-1, 1] ကြားထဲ ရောက်အောင် ညှိပေးတဲ့ activation function တစ်ခု ဖြစ်ပါတယ်။
- Technical Debt (နည်းပညာ အကြွေး): အလုပ်မြန်မြန်ပြီးဖို့အတွက် နည်းစနစ်မကျဘဲ လုပ်ခဲ့တာကြောင့် နောက်ပိုင်းမှာ ပြန်ပြင်ရခက်လာတဲ့ အခက်အခဲများ။
- Temperature (တန်ပရက်ချာ): AI က စာသားတွေ ထုတ်ပေးတဲ့အခါ ဘယ်လောက်အထိ random ဖြစ်မလဲဆိုတာကို ထိန်းချုပ်တဲ့ တန်ဖိုး ဖြစ်ပါတယ်။
- အသေးစိတ်ရှင်းလင်းချက်: နည်းရင် ပုံသေ အဖြေတွေပဲ ထွက်လာမှာ ဖြစ်ပြီး များရင်တော့ ပိုပြီး ထူးခြားတဲ့ အဖြေတွေ ထွက်လာပါမယ်။
- Tokenizer (တိုကင်နိုင်ဇာ): စာသားတွေကို token id တွေအဖြစ် ပြောင်းလဲပေးတဲ့ အစိတ်အပိုင်း ဖြစ်ပါတယ်။
- TOML: Tom's Obvious, Minimal Language - ဖတ်ရလွယ်ကူတဲ့ config ဖိုင် ရေးသားနည်း format တစ်ခု ဖြစ်ပါတယ်။
- Tool Calling (တူးလ် ကောလင်း): AI က အပြင်က tool တွေ၊ API တွေကို အသုံးပြုနိုင်အောင် တောင်းဆိုတဲ့ စနစ်ဖြစ်ပါတယ်။
- Transformer (ထရန်စဖော်မာ): self-attention mechanisms တွေအပေါ် အခြေခံထားတဲ့ neural network architecture ဖြစ်ပါတယ်။
- Type System (တိုက်ပ် စစ်စတမ်): ကုဒ်တွေမှာ အမှားမပါအောင် စစ်ဆေးတဲ့ စည်းကမ်းစနစ် ဖြစ်ပါတယ်။
- Vector (ဗက်တာ): ကိန်းဂဏန်းတွေ အစီအစဉ်လိုက် ပါဝင်တဲ့ list တစ်ခု ဖြစ်ပါတယ်။
- Version-Controlled Database: Git လိုမျိုး ပြောင်းလဲမှုတွေကို version history အဖြစ် သိမ်းဆည်းနိုင်တဲ့ database ဖြစ်ပါတယ်။
- Weight Initialization (ဝိတ် အင်နီရှယ်လိုက်ဇေးရှင်း): သင်ကြားမှု မစခင် parameter တွေရဲ့ အစပြု တန်ဖိုးတွေကို သတ်မှတ်တဲ့ နည်းဗျူဟာ ဖြစ်ပါတယ်။
- Workflow Formula (ဝပ်ခ်ဖလိုး ဖော်မြူလာ): ပြန်လည် အသုံးပြုနိုင်တဲ့ လုပ်ငန်းစဉ် ပုံစံခွက် (template) များ ဖြစ်ပါတယ်။
- YAML: configuration တွေ ရေးသားရာမှာ သုံးတဲ့ လူဖတ်ရလွယ်ကူတဲ့ data format တစ်ခု ဖြစ်ပါတယ်။