名詞 英文全稱(中文全稱) 原理 功能 Adapter Modules Adapter Modules(適配模塊) 一種輕量級網絡結構,可插入大型預訓練模型中,僅增加少量參數用于模型微調 在不額外增加大量計算成本的前提下,提升模型在特定任務上的表現,兼顧模型性能與訓練效率。 Agent Agent(智能體) 由 LLM 搭配記憶模塊、工具調用模塊和規劃模塊組成,能自主感知環境、制定計劃并執行動作 自主完成各類復雜任務,例如智能辦公助手可自主整理日程、檢索資料并生成報告,自動駕駛系統可自主應對路況完成行駛任務。 AGI Artificial General Intelligence(通用人工智能) 追求具備人類水平,可理解并學習任意智力任務的智能系統 目標是勝任跨領域任務,當前尚處理論階段,是 AI 研究終極方向。 AGI Artificial General Intelligence(通用人工智能) 以打造具備人類水平智能為目標,設計能理解、學習并完成任何人類可執行的智力任務的系統 是 AI 研究的終極方向,若實現可適配所有領域任務,如同時完成科學研究、復雜工程設計、日常服務等綜合性工作。 AGI Artificial General Intelligence(通用人工智能) 以實現人類水平智能為目標,設計可自主感知、學習、推理,且能勝任各類智力任務的系統,具備跨領域舉一反三的能力 作為 AI 研究的終極方向,旨在打破當前專用 AI 的場景局限,未來有望適配科研探索、復雜決策、多場景協同等全能型任務,目前尚未實現。 AI Artificial Intelligence(人工智能) 模擬人類智能,通過算法讓機器具備學習、推理等類似人類的能力 應用于人臉識別、智能助手等,覆蓋多領域完成各類智能任務。 AI Hallucination AI Hallucination(AI 幻覺) 模型在訓練數據不足、語義理解偏差等情況下,基于概率預測生成與事實不符的虛假信息或無依據內容 是大模型常見缺陷,會導致生成內容失真,推動相關技術研發以降低幻覺率,保障模型在學術、醫療等領域應用的可靠性。 AI Hallucination AI Hallucination(AI 幻覺) 模型在訓練數據不足、邏輯推理出錯等情況下,生成看似合理但與事實不符、無依據的內容 屬于模型的典型缺陷,會導致輸出虛假信息,推動了事實核查、數據增強等優化技術的發展,適配嚴謹性要求高的任務場景 AIGC AI - Generated Content(人工智能生成內容) 基于生成模型學習數據特征,按指令生成各類新內容 生成文本、圖片、音樂等內容,降低創作門檻,適配多場景內容需求。 ALBEF Align before Fuse(先對齊再融合模型) 先獨立編碼圖文特征,通過跨模態注意力機制對齊特征,再進行模態融合訓練 適配圖文檢索、圖像描述、視覺問答等多任務,提升跨模態理解與生成能力。 Alpaca Alpaca(羊駝大模型) 基于 LLaMA,用指令微調技術,通過少量高質量對話數據優化模型 擅長遵循指令生成文本,適配輕量化對話場景,助力開發者快速搭建對話模型。 ANI Artificial Narrow Intelligence(弱人工智能) 聚焦單一或有限范圍的特定任務,基于專項算法和數據訓練,僅具備處理特定場景問題的能力,無自主意識和跨領域學習能力 適配各類日常及專業特定場景,例如下圍棋的 AlphaGo、語音轉文字工具、智能推薦系統等,是目前主流的 AI 應用形態 ASI Artificial Super Intelligence(超人工智能) 理論上超越人類所有智力水平的人工智能,不僅能精通人類所有領域知識,還能在創新、決策等方面展現出遠超人類的能力 當前僅存在于理論和科幻構想中,若實現可能顛覆現有科技、產業等諸多領域的發展模式,承擔人類難以完成的復雜科研、宇宙探索等任務 Attention Head Attention Head(注意力頭) 在自注意力機制中,將注意力空間拆分多個子空間,每個子空間即為一個注意力頭,并行捕捉數據不同維度的特征 增強模型對數據特征的全面捕捉能力,比如處理文本時,不同注意力頭可分別關注語法結構、語義關聯等不同維度信息。 BERT Bidirectional Encoder Representations from Transformers(雙向編碼器表示變換器) 采用 Transformer 編碼器,通過掩碼任務學習雙向上下文語義 適配文本分類、問答、實體識別等,強化自然語言理解能力。 BioGPT BioGPT(生物醫學生成式預訓練變換器) 基于 Transformer 架構,用海量生物醫學文獻預訓練,優化專業領域語義理解 處理生物醫學文本生成、文獻摘要、藥物研發相關問答等專業任務。 BLIP - 2 Bootstrapping Language - Image Pre-training 2(引導式語言 - 圖像預訓練模型 2) 通過 Q - Former 模塊連接視覺模型與 LLM,凍結 LLM 參數實現跨模態特征融合 支撐圖像描述、視覺問答等任務,打通視覺信息到語言生成的轉化鏈路。 BloombergGPT 無特定中文全稱(彭博金融大語言模型) 基于 Transformer,用海量金融數據預訓練,強化金融語義學習 處理金融報告生成、市場分析等,適配金融領域專業問答與數據解讀。 BPU Brain Processing Unit(大腦處理器) 地平線科技提出的嵌入式人工智能處理器架構,針對深度神經網絡的高效計算設計 攻克傳統處理器處理并行計算任務的效率難題,適配終端設備的圖像識別、語音處理、智能控制等嵌入式 AI 場景 Chain-of-Thought Chain-of-Thought(CoT,思維鏈) 通過提示詞引導模型像人類思考一樣,逐步拆解復雜問題,輸出分步驟的推理過程,而非直接給出最終答案,讓模型推理邏輯更連貫 大幅提升模型處理復雜任務的準確率,比如數學推理、邏輯分析、代碼調試等場景,例如讓模型求解復雜應用題時,通過思維鏈可清晰呈現每一步演算過程,減少計算錯誤 ChatGLM Chat General Language Model(對話通用語言模型) 基于 Transformer 的雙向注意力機制,優化中文語境下的語義學習 高效處理中文文本生成、多輪對話,適配國內日常及辦公語言場景。 Claude 3.5 Claude 3.5(克勞德 3.5 模型) 優化 Transformer 架構,強化非結構化數據處理與視覺推理能力 處理文本摘要、對話交互,適配法律、醫療等高精度場景。 CLIP Contrastive Language–Image Pre-training(對比語言 - 圖像預訓練) 聯合訓練文本和圖像編碼器,學習圖文語義對應關系,通過對比學習對齊模態特征 實現跨模態檢索,支持圖搜文、文搜圖,適配內容檢索、圖像分類等場景。 CNN Convolutional Neural Network(卷積神經網絡) 以卷積運算為核心,通過卷積核提取數據的局部特征,再經池化等操作壓縮特征維度,擅長處理圖像這類網格狀結構的數據 是圖像處理領域的核心技術,比如安防監控的異常行為識別、醫療影像的病灶篩查、自動駕駛的道路標識識別等,都依賴其高效提取圖像中的關鍵特征 Context Length Context Length(上下文長度) 限定模型一次性可處理和記憶的 Token 總量,相當于模型的 “短期記憶” 容量 決定模型處理長文本的能力,比如長上下文模型可完整解析長篇論文并生成總結,短上下文模型則更適配短句對話場景。 Context Length Context Length(上下文長度) 限定模型單次處理文本時能承載的 Token 總量,相當于模型的 “短期記憶容量”,直接決定模型對長文本的處理能力 決定模型可讀取的對話歷史、文檔篇幅上限,長上下文長度可支撐模型處理長篇論文解讀、多輪復雜對話等場景,提升對復雜文本的理解完整性。 Context Length Context Length(上下文長度) 相當于模型的 “短期記憶容量”,限定了模型單次能夠接收和處理的 Token 總量上限,直接決定模型能關聯的對話歷史或文本上下文范圍 影響模型對長文本、長對話的理解能力,例如長上下文模型可一次性處理整部小說并生成梗概,短上下文模型則需分段處理,常用于文檔分析、長對話助手等場景 CoT Chain-of-Thought(思維鏈) 通過提示詞引導模型分步拆解復雜問題,按邏輯順序輸出推理過程,模擬人類解決復雜問題時的思考路徑 提升模型處理數學計算、邏輯推理等復雜任務的準確性,比如引導模型分步推導數學公式、拆解邏輯論證題,減少直接輸出答案的錯誤率。 CV Computer Vision(計算機視覺) 模擬人類視覺系統,借助圖像處理、模式識別等技術,讓計算機對圖像或視頻中的目標進行檢測、識別、跟蹤等操作 實現圖像分類、人臉識別、自動駕駛環境感知等功能,廣泛應用于安防監控、醫療影像診斷、工業質檢等場景。 Dataset Dataset(數據集) 是模型訓練、驗證和測試的基礎數據集合,涵蓋文本、圖像、音頻等多種類型,數據的規模、質量和多樣性直接決定模型的學習效果上限 為模型提供學習素材,例如訓練圖像識別模型需大量標注圖像數據集,訓練翻譯模型需多語言對照文本數據集,高質量數據集能顯著提升模型的泛化能力和準確率 Deepfake Deepfake(深度偽造) 依托深度學習技術,尤其是生成式模型,對圖像、音頻、視頻進行合成篡改,比如替換人臉、模擬語音、偽造動作等,讓偽造內容看起來高度逼真 既有創意應用場景,如影視后期角色面部修復、虛擬角色配音;也存在風險,易被用于制作虛假新聞、詐騙視頻等,推動了內容溯源和鑒別技術的發展 DeepSeek-V3 DeepSeek-V3(深度求索 V3 模型) 基于 Transformer,支持 128K 長上下文,海量中文數據預訓練 高效處理中文文本生成、長文檔分析,適配國內企業各類場景。 Diffusion Model Diffusion Model(擴散模型) 模擬氣體擴散過程,先向數據中逐步添加噪聲使其變成隨機狀態,再訓練模型反向逐步去噪還原數據 生成高質量的圖像、視頻等內容,是 Stable Diffusion 等主流生成式圖像工具的核心技術,適配創意設計、影視素材制作等場景。 DL Deep Learning(深度學習) 機器學習的重要分支,模擬人腦神經元網絡結構構建多層神經網絡,通過多層數據處理挖掘數據中更抽象、深層的特征規律 高效處理圖像、語音等非結構化數據,突破傳統機器學習的能力瓶頸,是計算機視覺、語音識別等高端 AI 技術落地的核心支撐。 DPU Deep Processing Unit(數據處理單元) 新型可編程處理器,專門針對數據中心的網絡、存儲和計算任務設計,補充 CPU 和 GPU 的功能缺口 承擔數據中心的海量數據處理任務,緩解 CPU 的負載壓力,保障數據傳輸與存儲的高效性,是現代數據中心的核心支撐芯片之一。 Emergent Abilities Emergent Abilities(涌現能力) 當 AI 模型的參數、數據量等規模突破特定閾值后,量變引發質變,突然顯現出小型模型不具備的新能力 讓大模型具備編寫代碼、復雜邏輯推理等小型模型難以實現的能力,是大模型突破性能瓶頸的關鍵特性。 Emergent Abilities Emergent Abilities(涌現能力) 當模型規模(如參數數量)達到一定閾值后,突然展現出訓練過程中未被專門教授的全新能力 拓展模型的應用邊界,比如大模型在參數達標后,意外具備復雜代碼調試、跨領域知識融合等原本未針對性訓練的能力 ERNIE Enhanced Language Representation with Informative Entities(實體增強的語言表示模型) 類 BERT 架構,遮蔽短語和專有名詞,融入實體信息預訓練 適配中文處理,支撐文本理解、語義分析等自然語言任務。 Falcon Falcon(獵鷹大模型) 基于 Transformer 架構,優化預訓練數據與注意力機制,開源且支持多語言 支撐文本生成、對話交互,適配企業級定制開發與學術研究二次優化。 Federated Learning Federated Learning(聯邦學習) 采用分布式訓練模式,多個參與方在不共享原始數據的前提下,共同訓練一個模型 在保護數據隱私的同時完成模型訓練,適配醫療、金融等數據敏感領域,避免數據泄露風險。 Few-Shot Learning Few-Shot Learning(小樣本學習) 通過少量標注樣本,結合遷移學習等技術,讓模型快速學習適配特定任務,無需依賴海量標注數據構建模型的任務適配能力 適配標注數據稀缺的場景,例如小眾疾病的醫療影像診斷(病例樣本少)、冷門語種的翻譯模型訓練等,降低特定領域模型的開發成本 Fine-tuning Fine-tuning(微調) 基于預訓練后的模型,用小批量特定領域的數據進一步調整模型參數,讓模型適配具體場景和任務需求 讓通用模型精準適配細分領域,例如將通用大模型微調后,可適配醫療病歷分析、法律文書解讀等專業場景 Foundation Model Foundation Model(基礎模型) 在海量多樣化無標注數據上完成無監督預訓練,搭建具備通用基礎能力的模型底座 作為通用平臺,通過微調等方式快速適配報告撰寫、翻譯等各類下游具體任務,降低特定任務模型的開發成本。 FPGA Field Programmable Gate Array(現場可編程門陣列) 一種可編程邏輯器件,無固定指令集,可通過重新編程實現不同功能,采用比特級細粒度定制結構和流水線并行計算模式 適配深度學習任務,相比 CPU 能耗更低,能助力深度學習實時計算在移動端落地,也可用于模型優化的定制化探究 GAN Generative Adversarial Network(生成對抗網絡) 靠生成器與判別器對抗訓練,相互博弈優化生成能力 生成逼真圖像、音頻等數據,適配藝術創作、數據擴充場景。 Gemini Gemini(雙子座大模型) 采用多模態統一架構,可同時處理文本、圖像、音頻、視頻等多種輸入模態 適配實時視頻解讀、多模態內容創作、智能助手多模態交互等復雜場景。 Gen AI Generative Artificial Intelligence(生成式人工智能) 基于算法與模型,學習數據中的特征和規律,進而生成文本、圖像、聲音、視頻等各類內容 是內容創作領域的核心技術,適配文案撰寫、創意繪畫、虛擬語音合成等場景,像 AI 繪畫工具、智能文案生成器均依托此技術。 GPT Generative Pre-trained Transformer(生成式預訓練變換器) 基于 Transformer 解碼器,自回歸逐 Token 生成文本,經海量文本預訓練 擅長文本創作、翻譯、摘要等,生成連貫且邏輯清晰的文本內容。 GPT - 4V GPT - 4 with Vision(帶視覺功能的生成式預訓練變換器 4) 擴展 GPT - 4 架構,新增視覺編碼器,融合文本與圖像特征進行聯合理解 解析電路圖、手寫筆記等復雜圖像,完成圖像解讀、圖文問答等跨模態任務。 Graph Neural Network(GNN) Graph Neural Network(圖神經網絡) 將數據構建成節點與邊組成的圖結構,通過聚合鄰居節點信息更新自身特征,適配非歐幾里得結構數據 處理社交網絡分析、分子結構預測、推薦系統等任務,比如分析用戶社交關系以實現精準好友推薦。 Grok-2 Grok-2(格羅克 2 模型) 對接 X 平臺數據接口,實時抓取數據并強化輿情分析算法 精準完成輿情分析與預測,適配金融、政治領域數據研判。 Hunyuan Hunyuan(混元大模型) 融合 Transformer 與 CNN、GAN 等,多源數據預訓練,強化多任務適配性 實現文本生成、圖像創作,支撐智能客服、內容創作等場景。 Inference Inference(推理) 模型完成訓練后,利用已習得的規律和參數,對從未接觸過的新輸入數據進行分析、計算并輸出結果的過程,是模型從 “學習” 到 “應用” 的關鍵環節 是 AI 技術落地的核心流程,比如訓練好的人臉識別模型,在實際場景中對路人面部信息進行比對識別、考勤打卡設備對員工面部的驗證,都屬于推理過程 Kimi-Research Kimi-Research(月之暗面研究模型) 搭載自主 Agent 框架,強化長文本處理與復雜任務拆解能力 獨立完成論文綜述、競品分析等復雜任務,適配科研與商業場景。 Knowledge Graph Embedding Knowledge Graph Embedding(知識圖譜嵌入) 將知識圖譜中的實體和關系映射到低維向量空間,轉化為模型可處理的數值形式 幫助模型更好地理解和推理實體間的關聯,提升知識問答、推薦系統等任務中關系推理的準確性。 LAM Language Action Model(語言行動模型) 結合 LLM 理解能力、任務規劃器與工具接口,將語言指令轉為具體操作 驅動 AI 智能體完成自動化預訂、軟件操作等需調用外部工具的任務。 LCM Latent Consistency Model(潛在一致性模型) 在潛在空間學習噪聲到清晰圖像的映射捷徑,減少生成推理步驟 快速生成高質量圖像,適配移動端濾鏡、實時圖像生成等低延遲出圖場景。 Learning Rate Learning Rate(學習率) 作為梯度下降算法的核心超參數,決定模型每次迭代時參數更新的步長大小 調控模型訓練效率與效果,合理的學習率可讓模型快速收斂到最優參數,過大或過小會導致模型訓練不穩定或訓練速度過慢。 LLaMA Large Language Model Meta AI(元人工智能大型語言模型) 基于 Transformer 架構,開源適配多語言低資源訓練 助力學術研究與開發者二次開發,支撐各類通用文本任務。 LLM Large Language Model(大型語言模型) 基于深度學習,通過海量文本數據訓練,包含數十億甚至數萬億個參數,以此學習人類語言規律和海量知識 支撐各類復雜語言任務,像 ChatGPT、文心一言等產品均依托它實現對話、翻譯、文案創作、論文撰寫等功能 LLMOps LLMOps(大模型運維) 借鑒 DevOps 理念,涵蓋大模型從數據準備、訓練、部署到監控、迭代的全生命周期管理流程 保障大模型穩定高效運行,解決大規模部署中的版本管理、算力調度、故障排查等問題,適配企業級大模型的工業化應用。 LLMOps LLMOps(大模型運維) 借鑒 DevOps 理念,針對大模型設計的全生命周期管理體系,涵蓋模型開發、訓練、部署、監控、迭代優化等全流程的標準化運維方案 解決大模型從實驗室到產業落地的運維難題,比如監控模型線上運行的穩定性、處理數據更新后的模型迭代、保障模型響應速度等,助力大模型規?;逃?/td> LoRA Low - Rank Adaptation(低秩適配) 通過低秩矩陣適配,僅更新少量參數而非全量參數來微調模型 低成本適配特定任務,降低大模型微調的計算資源消耗。 LSTM Long Short - Term Memory(長短期記憶網絡) 屬于循環神經網絡改進版,通過遺忘門、輸入門、輸出門的門控機制,解決傳統 RNN 長序列數據處理時的梯度消失問題 適配長序列數據處理,可用于文本翻譯、語音識別、時序預測等任務,比如處理長篇小說翻譯、連續語音轉文字等。 MACs Multiply Accumulate Operations(乘加累積操作次數) 一種微處理器中的特殊運算,單個操作包含一次乘法和一次加法,常作為衡量模型計算量的單位 用于評估 AI 模型的計算復雜度,為模型部署時的硬件選型提供參考,比如低 MACs 的模型更適配算力有限的嵌入式設備。 Meta-Learning Meta-Learning(元學習) 核心是 “學會學習”,通過特定算法讓模型掌握快速適應新任務的能力,無需大量樣本重新訓練 適配少樣本、零樣本等新任務場景,比如僅靠幾個示例就讓模型快速學會新領域的簡單分類任務。 ML Machine Learning(機器學習) 作為實現 AI 的核心方法,不依賴人工編寫固定規則,而是通過算法對大量數據進行分析,自主總結數據中的隱藏規律與模式 是深度學習的基礎,支撐分類、回歸、聚類等基礎 AI 任務,適配垃圾郵件識別、用戶消費偏好預測等場景,是多數 AI 應用的底層技術支撐。 MLM Masked Language Model(掩碼語言模型) 用雙向 Transformer 編碼器,通過遮蓋文本詞并預測的完形填空任務預訓練 生成高質量詞或句子嵌入,支撐文本分類、命名實體識別等任務。 MoE Mixture of Experts(專家混合模型) 含多個專家子網絡與路由器,路由器將輸入分配給適配的專家子網絡處理 構建高性能大模型,在控制計算成本的同時提升模型推理效率與規模。 MoE Mixture of Experts(專家混合模型) 將模型拆分為多個專注不同細分任務的 “專家模塊”,搭配門控網絡,根據輸入內容動態選擇激活對應的專家模塊協同工作 在保證模型性能的同時降低計算成本,是 GPT - 4 等大型模型的關鍵技術之一,可支撐模型高效處理多領域復雜任務,平衡算力消耗與處理效率 MOSS MOSS( moss 大語言模型) 采用 Transformer 架構,經中文多領域數據預訓練,支持插件擴展 可完成文本創作、代碼編寫等,適配科研與日常辦公的多樣化需求。 Multimodality Multimodality(多模態) 整合文本、圖像、語音、視頻等多種不同類型的信息模態,通過跨模態關聯算法,實現多類型數據的協同理解與處理 打破單一模態的信息局限,適配圖文生成、語音轉視頻、跨模態內容檢索等場景,比如根據文本描述生成對應圖像,或通過語音指令編輯視頻。 Multimodality Multimodality(多模態) 整合文本、圖像、音頻、視頻等多種不同類型的信息模態,通過跨模態融合技術,讓模型理解和生成多形式內容,打破單一模態的局限 實現跨形式的交互與創作,比如 AI 能根據文字描述生成對應的插畫(文本轉圖像),或依據視頻內容生成字幕和總結(視頻轉文本),常見于短視頻創作、智能教育等場景 NeRF Neural Radiance Field(神經輻射場) 通過神經網絡學習場景的輻射場信息,結合相機參數建模 3D 場景的光線分布 完成高精度 3D 場景重建與渲染,適配虛擬仿真、影視特效等場景,生成逼真的 3D 虛擬環境。 Neural Network Neural Network(神經網絡) 模擬人腦神經元的連接方式構建數學模型,由輸入層、隱藏層、輸出層組成,通過調整層間神經元的連接權重傳遞和處理信息 是深度學習的核心基礎結構,支撐圖像識別、語音合成等各類 AI 任務的實現,比如人臉支付系統的圖像比對功能就依托神經網絡完成 NLP Natural Language Processing(自然語言處理) 融合語言學、計算機科學等多學科,研發讓計算機理解、分析、生成人類自然語言的技術,搭建人類語言與計算機語言的溝通橋梁 支撐各類語言相關 AI 應用落地,例如機器翻譯、語音助手、文本情感分析、智能辦公的文檔校對等,像跨境電商的商品評論翻譯就依托 NLP 技術實現 NPU Neural network Processing Unit(神經網絡處理器) 模擬人腦神經元結構,采用并行計算架構,針對性適配神經網絡和深度學習算法的計算邏輯 快速處理神經網絡多層數據,加速深度學習任務,常見于智能手機、智能攝像頭等終端設備,支撐本地 AI 圖像識別、語音處理等功能。 o3-mini o3-mini(迷你奧 3 模型) 精簡 Transformer 架構,優化模型壓縮與知識蒸餾技術 快速處理 STEM 領域簡單任務,適配高并發、對響應速度要求高的場景。 Overfitting Overfitting(過擬合) 模型過度學習訓練數據的特征,甚至記住噪聲和異常值,導致在訓練數據上表現極佳,但面對新數據時性能大幅下降 是模型訓練中的常見問題,推動正則化等技術發展,幫助研發人員針對性優化模型,提升模型對新數據的適配能力。 Parameter Server Parameter Server(參數服務器) 采用分布式架構,專門存儲和管理大規模模型訓練過程中的海量參數,協調多個計算節點的參數同步與更新 支撐超大規模模型的分布式訓練,解決訓練時參數存儲壓力大、多節點參數一致性難題,提升大模型訓練效率。 Pre-training Pre-training(預訓練) 在模型正式適配特定任務前,用海量通用數據讓模型學習基礎規律、積累廣泛知識,搭建模型的基礎能力框架 為模型提供通用知識底座,減少后續針對特定任務的訓練成本,是大模型具備廣泛適配性的關鍵前置步驟 Prompt Prompt(提示詞) 作為用戶與 AI 模型交互的指令載體,可是短句、長段描述等形式,傳遞用戶需求與任務要求 明確模型的任務方向,其設計質量直接影響模型輸出效果,是自然語言處理任務中引導模型生成符合需求內容的關鍵。 Prompt Engineering Prompt Engineering(提示工程) 通過設計精準、合理的提示語,引導預訓練模型更好地理解任務需求,最大化發揮模型潛力 適配各類預訓練模型,無需微調就能讓模型完成特定任務,比如設計特定指令讓模型生成符合格式要求的報告。 Prompt Engineering Prompt Engineering(提示詞工程) 基于對模型行為的理解,研究提示詞的設計規律與優化方法,通過精準指令設計適配模型的響應邏輯 最大化 AI 模型性能,比如針對復雜數據分析任務設計分層提示詞,可讓模型按步驟輸出精準結果,提升任務處理效率與準確性。 Qwen Qwen(通義千問) 基于 Transformer 架構,經海量多語種數據預訓練,支持多模態拓展 處理文本生成、多輪對話,還可完成圖文理解等多模態任務。 RAG Retrieval - Augmented Generation(檢索增強生成) 結合檢索和生成兩大模塊,先從外部知識庫中檢索與當前問題相關的真實數據,再將數據作為參考輸入模型,輔助模型生成答案 有效降低 AI 幻覺概率,提升內容真實性,例如智能客服依托企業知識庫做 RAG 優化后,能精準輸出產品售后規則;學術助手可檢索最新論文數據,生成符合事實的綜述內容 Reinforcement Learning Reinforcement Learning(強化學習) 通過構建 “智能體 - 環境” 的交互模式,智能體在環境中完成動作后,依據獎懲機制調整策略,持續試錯優化以獲取最大化累積獎勵 適配需動態決策和持續優化的場景,例如自動駕駛中車輛避障路徑規劃、機器人自主完成復雜裝配任務、AlphaGo 圍棋策略優化等 RLHF Reinforcement Learning from Human Feedback(從人類反饋中強化學習) 靠人類評價構建獎勵模型,用強化學習優化模型輸出,對齊人類需求 讓模型輸出更貼合人類偏好,提升回答邏輯性與合規性。 RLHF Reinforcement Learning from Human Feedback(人類反饋強化學習) 先讓模型生成內容,人類對內容評分反饋,再以此為依據用強化學習算法迭代優化模型參數 讓模型輸出契合人類價值觀和偏好,減少不當內容,提升回答的合理性與實用性,是 ChatGPT 等模型對齊人類需求的核心技術。 RoBERTa Robustly Optimized BERT Approach(魯棒優化的雙向編碼器表示變換器方案) 優化 BERT,移除 NSP 任務,采用動態掩碼,增加訓練數據與時長 提升文本理解精度,適配文本分類、情感分析等 BERT 類任務。 SAM Segment Anything Model(分割一切模型) 采用圖像編碼器、提示編碼器和掩碼解碼器,依據用戶提示捕捉圖像物體特征 精準分割圖像中任意物體,可用于圖像摳圖、醫學影像分析、自動駕駛場景物體分割。 Self-Attention Self-Attention(自注意力機制) 作為 Transformer 架構的核心功能,模型處理數據時可自動判斷每個元素與其他元素間關聯的重要程度 解決多義詞、上下文關聯等理解難題,比如能區分文本中 “蘋果” 指代水果還是公司,保障模型準確解析語義 SFT Supervised Fine - Tuning(監督微調) 用高質量標注數據集,對預訓練后的模型進一步針對性訓練 提升模型在特定任務上的表現,讓輸出更貼合任務需求。 SLM Small Language Model(小型語言模型) 通過參數削減、知識蒸餾等技術,輕量化 LLM 適配邊緣設備 適配設備端離線翻譯、本地文本處理等低資源、低延遲場景。 SNN Spiking Neural Network(脈沖神經網絡) 模擬生物神經元的脈沖發放機制,僅在接收到特定強度信號時產生脈沖信號傳遞信息,具有時序特性和低功耗特點 適配低功耗場景,可應用于邊緣計算設備、腦機接口等領域,比如穿戴式健康監測設備中的信號處理任務。 Sora Sora(文本生成視頻模型) 擴散模型基礎,從視頻噪聲逐步去噪,結合多幀預測生成技術 根據文本生成 1 分鐘高保真視頻,還能擴展視頻、靜態圖轉視頻。 Stable Diffusion Stable Diffusion(穩定擴散模型) 基于擴散模型,在潛在空間逐步去噪生成圖像,結合文本編碼器關聯語義與圖像 根據文本描述生成創意圖像,還可實現圖像修復、風格遷移等圖像編輯任務。 Supervised Learning Supervised Learning(監督學習) 借助帶明確標注的訓練數據(如標注了 “貓”“狗” 的圖片集),讓模型學習輸入數據與標注結果間的映射關系,訓練過程中模型可根據標注修正偏差 適用于需明確分類或預測的任務,例如垃圾郵件分類、房屋價格預測、疾病初步篩查(通過標注病例數據訓練)等場景 T5 Text-to-Text Transfer Transformer(文本到文本轉換變換器) 基于 Transformer,將所有 NLP 任務統一為文本轉換文本的格式 適配翻譯、摘要等多種 NLP 任務,簡化模型設計適配多場景。 Token Token(令牌) 是模型處理文本時的最小語義單元,英文中可能拆分詞根或詞綴,中文多以單個漢字或詞語為單位,模型需先將文本拆解為 Token 再開展后續處理 作為文本處理的基礎拆分形式,支撐模型對語言的理解與生成,比如 ChatGPT 處理長文本時,會通過 Token 計數控制內容長度,保障處理效率 TPU Tensor Processing Unit(張量處理器) 谷歌專為深層神經網絡運算研發的專用芯片,采用低精度運算設計,適配機器學習算法的算力需求 大幅提升神經網絡運算效率,支撐 AlphaGo、Google 搜索結果處理系統 RankBrain 等場景的高效運行,兼顧高性能與低功耗。 Transformer Transformer(變換模型) 以自注意力機制與多頭注意力為核心,靠位置編碼體現文本順序 作為多數大模型基礎架構,支撐文本理解與生成等核心任務。 Transformer Transformer(Transformer 架構) 以自注意力機制為核心創新點,讓模型能動態關注輸入信息不同部分的關聯,是當前主流大模型的核心設計框架 大幅提升模型對文本等數據的學習效率,為 GPT、Deepseek 等先進大模型的研發和應用奠定基礎 Unsupervised Learning Unsupervised Learning(無監督學習) 無需人工標注數據,模型自主分析海量無標注數據,挖掘數據中隱藏的聚類、關聯等內在規律和分布特征 常用于數據探索和初步處理,比如電商平臺的用戶消費偏好分群、市場細分、異常交易初步識別等,幫助發現數據中的潛在價值 ViT Vision Transformer(視覺變換模型) 把 Transformer 架構應用于圖像領域,將圖像分割成多個圖像塊,再通過自注意力機制處理 實現高精度圖像分類,打破傳統卷積神經網絡在圖像處理中的局限,推動計算機視覺與 NLP 架構融合。 VLM Vision Language Model(視覺語言模型) 雙編碼器分別處理視覺與文本信息,借跨模態注意力融合兩類信息 實現圖像描述、視覺問答等,打通視覺與文本的語義關聯。 VPU Vector Processing Unit(矢量處理器) 專門面向視頻場景優化的視頻加速器,內置視頻編碼加速專用模塊,主打高性能、低功耗特性 解決 CPU 處理視頻效率低的問題,高效處理海量視頻數據,適配視頻剪輯、視頻監控分析、直播畫質優化等場景 Word Embeddings Word Embeddings(詞嵌入) 將文字轉化為計算機可處理的低維向量,語義相近的詞在向量空間中的距離更近 解決傳統編碼無法體現詞間關聯的問題,為自然語言處理任務提供基礎,支撐模型理解詞匯語義關系。 XAI Explainable AI(可解釋性 AI) 針對傳統 AI 模型 “黑箱” 問題,通過技術手段讓模型的決策過程、參數調整邏輯、結果生成依據變得清晰可追溯、可理解,打破模型輸出與底層邏輯的信息壁壘 適用于對可靠性要求極高的領域,比如醫療 AI 診斷系統,可解釋模型能說明病灶識別的判斷依據,幫助醫生驗證結果;金融風控場景中,可清晰展示信貸拒絕的核心原因 量化 Quantization(量化) 降低參數表示精度,將高精度數值轉為低精度,實現模型壓縮 減少模型存儲占用與計算資源消耗,適配邊緣設備部署。 蒸餾 Knowledge Distillation(知識蒸餾) 把復雜大模型的知識遷移到小型模型,復刻核心能力 讓小模型低成本保留大模型性能,便于大規模部署與快速推理。
本文為張軍原創文章,轉載無需和我聯系,但請注明來自張軍的軍軍小站,個人博客http://www.dlhighland.cn
更多文章、技術交流、商務合作、聯系博主
微信掃碼或搜索:z360901061
微信掃一掃加我為好友
QQ號聯系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元

