大模型本地部署訓練和應用實踐班
時間:2025-04-18 09:00 至 2025-04-20 18:00
地點:昆明

- 參會報名
- 會議通知
- 會議日程
- 會議嘉賓
- 參會指南
- 邀請函下載
|
大模型本地部署訓練和應用實踐班
會議時間:2025-04-18 09:00至 2025-04-20 18:00結束 會議地點: 昆明 詳細地址會前通知 會議規模:50人 主辦單位: 北京中科軟培科技有限公司
|
門票名稱 | 單價 | 截止時間 | 數量 | |
早鳥價:3月28日之前報名享受8折
![]() |
¥3980.0 | 2025-05-22 17:00 | ![]() |
|
合計:
|
會議通知
會議內容 主辦方介紹
大模型本地部署訓練和應用實踐班宣傳圖
? ? 【課程概述】
? ? 隨著人工智能技術的飛速發展,大模型在自然語言處理、計算機視覺、語音識別等眾多領域取得了顯著的成果,如GPT系列、DeepSeep系列在大語言模型方面的突破,為各行業帶來了新的可能性。然而,大模型的訓練和應用往往需要強大的計算資源和專業的技術知識,本地部署訓練成為了一種實際且有效的解決方案,能夠讓使用者更好地掌控模型訓練過程和數據隱私。
? ?為了幫助從業者和高校教師更好地掌握這些前沿技術,我單位于4月18-20日舉辦“大模型本地部署訓練和應用實踐班”。該實戰班采用理論與實戰相結合的培訓模式,旨在讓學員全面掌握各個大模型的特點,部署本地大模型,并通過實戰練習,學會將這些技術應用于實際業務。通過系統的培訓,學員可以提升自己在AI領域的專業素養和實踐能力。
主辦單位:北京中科軟培科技有限公司
協辦單位:中科軟培承德科技有限公司
【培訓/地點】
2025年4月18日——4月20日(17日報道) 線下昆明+線上直播
【課程大綱】
主題 | 知識點 |
第一節:主流大模型應用介紹和模型間的商業集成 | 典型大模型比較 1. GPT-4(OpenAI) 2. Claude(Anthropic) 3. Gemini(Google) 4. Llama(Meta) 5. QWen(阿里) 6. Coze(字節跳動) 7. DeepSeek(深度求索-幻方量化) 大模型整體技術闡述:主流技術、小眾技術有哪些 基于Transformer架構和支持復雜上下文理解 大模型的量化壓縮 GPT4的多模態能力(文本、圖像輸入)、邏輯推理、長文本生成。 GPT4應用場景建議:對話系統、內容創作、數據分析、教育 Claude的安全性和倫理對齊,支持超長上下文(最高支持200k tokens) Claude的Constitutional AI框架特點 Claude應用場景建議:法律文檔分析、長文本總結、合規性審核 Gemini原生多模態(文本、圖像、視頻、代碼)和高性能推理 Gemini的TPU優化訓練,支持實時多模態交互。 Gemini應用場景建議:跨媒體內容生成、科研數據分析、編程輔助 Llama區別于GPT4的重要做法:開源可商用,70B參數規模,支持微調 Llama社區驅動優化思路 Llama應用場景建議:企業私有化部署、學術研究、定制化AI服務 QWen的中文優化,行業垂類模型(如法律、醫療),支持插件擴展 QWen應用場景推薦:電商客服、金融風控、智慧城市 Coze的低代碼AI Agent開發平臺,多模態交互,工作流編排 Coze應用場景建議:智能客服、自動化流程、游戲NPC交互 Coze的插件市場、可視化流程設計器、多模型調度(支持集成第三方模型)的實踐 DeepSeek的數學、中文問答、CoT、代碼生成等方向的sota做法,長上下文優化 DeepSeek的MoE架構,在R1、V3兩個不同模型上的對比技術亮點 DeepSeek應用場景建議:一般性問答、金融數據分析、科研計算、教育解題 DeepSeek與火山Coze的商用集成方案 插件開發、工作流開發、觸發器配置 通過插件擴展Coze與DeepSeek的交互能力 調用DeepSeek的數學引擎處理數據 接口封裝:將DeepSeek的API封裝為Coze插件(如REST API適配) 權限控制:在Coze平臺配置API密鑰與訪問權限 調用DeepSeek-Math處理用戶輸入的財務數據 調用DeepSeek生成Python腳本并返回結果到Coze對話流 在Coze中通過可視化工具串聯DeepSeek與其他服務(如數據庫、第三方API)。 用戶輸入觸發:用戶通過Coze聊天界面提問(如“計算公司季度增長率”) 數據預處理:Coze調用插件從數據庫提取原始數據 調用DeepSeek:將數據發送至DeepSeek進行數學建模。 結果渲染:DeepSeek返回計算結果,Coze生成可視化圖表并反饋給用戶 定時觸發:每日自動生成銷售報告(調用DeepSeek分析數據) 條件觸發:當用戶提問包含“計算”“公式”等關鍵詞時,自動路由到DeepSeek處理 API觸發:外部系統通過Webhook觸發Coze工作流(如ERP系統請求庫存預測) 通過Coze的權限管理限制DeepSeek訪問敏感數據 對DeepSeek的API請求做緩存(如高頻計算問題結果緩存) 在Coze中設置異步調用,避免長流程阻塞。 |
第二節:技術對比和主流開源大模型選型 | 1.1 模型選擇 ·?Deepseek-R1?(7B/67B):中文領域表現SOTA,支持長上下文推理 ·?Llama-3?(8B/70B):Meta最新開源模型,多語言通用底座 ·?Mistral-8x7B:MoE架構標桿,推理效率提升3倍 ·?Qwen-72B:阿里千問開源版,金融法律領域微調能力強 1.2 基礎環境搭建實操 ·?硬件要求:至少24GB顯存(如RTX 3090/A10) + 64GB內存 ·?軟件依賴: o?CUDA 12.1 + cuDNN 8.9 o?PyTorch 2.2 + Transformers 4.38 o?FlashAttention-2加速庫 o?關鍵配置:LD_LIBRARY_PATH添加cuda路徑,設置PYTORCH_CUDA_ALLOC_CONF防止顯存碎片 |
第三節:大模型辦公效率提升和提示詞Prompt技巧 ? ? | DeepSeek應用 AI工具對個人與企業影響 DeepSeek與Llama3、Qwen的對比 DeepSeek網頁版與本地版功能對比 7B小模型與32B模型功能對比 DeepSeek角色扮演,打造不同領域的專屬AI顧問 PPT中AI智能應用 AI自動排版 AI自動搜圖 DeepSeek輔助PPT創意構思 DeepSeek融合專業PPT應用工具 DeepSeek關聯PPT智能插件應用 Excel中的AI智能數據魔法 AI自動分析、格式化 AI自動圖表、透視表 DeepSeek輔助Excel深度數據分析 DeepSeek函數編寫“神助攻”,助力函數菜鳥成高手 DeepSeek編寫VBA代碼,讓零基礎寫代碼變得簡單高效 將工作表數據拆分成多個工作表 將工作表數據拆分成多個工作簿 將多個工作表數據合并成一個工作表 多個工作簿中的工作表保存到一個工作簿 ChatGPT助力Excel自動化實戰 DeepSeek創意枯竭時的靈感源泉 營銷文案、工作報告、創意寫作的生成案例 DeepSeek快速精準地提煉文檔信息 DeepSeek助力文檔智能糾錯與優化建議 DeepSeek助力學術論文撰寫得力助手 |
第四節:本地大模型私有化部署 | 2.1 Deepseek-R1部署流程 1.?模型獲取: o?通過HuggingFace官方倉庫申請權限 o?下載deepseek-r1-7b-base的safetensors格式權重 2.?推理服務啟動 o?關鍵參數trust_remote_code、max_model_len等的講解 o?解釋器多種啟動服務方式對比 3.?服務驗證 o?代碼調用 o?服務API的參數設置 2.2 Llama-3-8B快速部署 1.?量化加速 o?FP8的特點 o?對比Deepseek原論文中量化章節的解讀 2.?REST API調用: o?深度學習系統部署的常用方式 o?針對AI算法的部署框架 |
第五節:大模型行業數據的微調和模型訓練 | 3.1 Deepseek-R1金融領域微調 1.?數據準備: o?格式:JSONL文件,每條含instruction/input/output o?數據源:財報、券商研報、金融問答對、運營商問答對、意圖識別數據 o?關鍵處理:使用SentencePiece重組專業術語tokenization 2.?QLoRA訓練配置 o?微調在大模型中的常用方法 o?多種LoRA方式的對別 3.?啟動訓練 o?顯存優化 o?GPU并行 3.2 探討適合微調的場景 o?闡述項目中RAG模式和LoRA模式的選擇 |
第六節:基于DeepSeek私有化代碼編程 | 本地化模型部署 模型獲取與安裝 DeepSeek獲取私有化模型安裝包,模型文件(權重+配置文件) 硬件選型:GPU算力、內存、存儲,并安裝依賴環境CUDA、Docker、Python庫 服務器內網環境管理和必要的設置 開發工具本地化集成、IDE插件適配 Cursor、CodeGPT等工具配置,模型調用指向DeepSeek API,禁用云端服務 搭建本地模型服務(RESTful API或gRPC) 離線依賴管理:搭建私有倉庫 禁用外部數據傳輸,關閉開發工具自動更新、云同步功能 對模型文件、代碼庫進行加密存儲,記錄所有模型調用日志 記錄用戶操作(如模型調用、代碼提交) 確定DeepSeek的離線更新流程,及時模型補丁 |
第七節:自定義知識問答 | 4.1研報文檔自動生成系統 架構設計: 1.?數據層:Wind API實時獲取宏觀指標 + PDF解析模塊 2.?推理層: o?Deepseek-R1作為生成核心 o?Mistral-8x7B進行事實核查 3.?評估層: o?Rouge-L評估內容一致性 o?FinBERT檢測財務數據矛盾 以部署拓撲理清整體脈絡 常規分析、復雜計算、數據采集、向量數據庫、路由決策、Deepseek-R1/Mistral-8x7B、合規審查、PDF輸出 4.2 業務領域的對話系統(根據具體需要選擇智能投顧、套餐產品等) 關鍵技術點: 1.?RAG增強: o?使用LlamaIndex構建行業知識圖譜 o?FAISS向量庫實現百萬級文檔秒級檢索 2.?記憶管理: o?緩存最近輪次的對話摘要 o?采用CoT(Chain-of-Thought)提示工程技術 3.?風控攔截: o?關鍵詞過濾(如“保證收益”、“100%”等違規表述) o?置信度閾值設定(softmax概率<0.7時觸發人工接管) |
第八節:上線前的大模型系統優化 | 5.1 性能加速方案 ·?量化壓縮: o?GPTQ 4bit量化使模型體積減少70% o?采用DeepseekV3提出的MTP技術實現tokens ·?緩存策略: o?KV Cache分塊存儲,降低重復計算 o?高頻問題回答預生成 5.2 監控體系建設 1.?業務指標: o?平均響應時間<2.5s o?意圖識別準確率>92% 2.?模型指標: o?PPL(困惑度)波動監控 o?Attention熵值異常檢測 3.?硬件監控: o?GPU利用率>85%時自動擴容 o?顯存泄漏預警機制 |
【授課專家】
鄒博:從事深度學習項目管理的人員,帶隊完成了數十個AI項目,內容不僅包括深度學習、機器學習、數據挖掘、大模型等具體技術要點,也包括AI的整體發展、現狀、應用、商業價值、未來方向等,涵蓋內容非常豐富,完成50多個深度學習實踐項目,廣泛應用于醫療、交通、農業、氣象、銀行、電信等多個領域。兼備大學老師和企業CEO雙重身份,已經有10本人工智能領域的專著(數十所大學使用作為研究生教材,進入多家大學圖書館名錄),可以結合實踐項目進行重點關注內容的講解和實操。
【費用標準】
線上2980元/人、線下3980元/人、早鳥價:3月28日之前報名享受8折(課后均可獲得線上回放),含上課期間專家授課費、教材資料費等,參加線下課程食宿費用自理;支持公務卡在線支付,銀行對公轉賬,培訓費由北京中科軟培科技有限公司提供正式增值稅電子發票或紙質發票。
查看更多

中科軟培主要從事IT方向的前沿技術培訓,本著為用戶創造真正價值,圍繞以用戶為中心的價值觀不斷探索,在機器學習,深度學習,大數據、R語言、虛擬現實、增強現實等領域形成了完善的課程體系。學以致用,全部課程均已實戰為主,采用理論與實戰相結合的方式,實用的課程設計、精心施教的專家團隊、嚴格的教學把關、細心周到的后期咨詢,贏得眾多客戶的好評。
會議日程
會議嘉賓
參會指南
會議門票
票種名稱 | 價格 | 原價 | 票價說明 |
早鳥價:3月28日之前報名享受8折 | ¥3980 | ¥3980 | 線上2980元/人、線下3980元/人、早鳥價:3月28日之前報名享受8折(課后均可獲得線上回放),含上課期間專家授課費、教材資料費等,參加線下課程食宿費用自理;支持公務卡在線支付,銀行對公轉賬,培訓費由北京中科軟培科技有限公司提供正式增值稅電子發票或紙質發票。 |
查看更多
溫馨提示
酒店與住宿:
為防止極端情況下活動延期或取消,建議“異地客戶”與活動家客服確認參會信息后,再安排出行與住宿。
退款規則:
活動各項資源需提前采購,購票后不支持退款,可以換人參加。
您可能還會關注
-
產品平臺與CBB技術管理 2025年 上海4月24-25日
2025-04-24 上海
-
集成產品開發IPD 2025年 北京9月18-19日
2025-09-18 北京
-
告別傳統培訓低效難題 企業效果化智能學習平臺
2025-05-09 線上活動
-
集成產品開發IPD 2025年 深圳9月25-26日
2025-09-25 深圳

報名平臺,您可在線購票
會議支持:
-
會員折扣
該會議支持會員折扣
具體折扣標準請參見plus會員頁面 -
會員返積分
每消費1元累積1個會員積分。
僅PC站支持。 -
會員積分抵現
根據會員等級的不同,每抵用1元可使用的積分也不一樣,具體可參見PLUS會員頁面。 僅PC站支持。
部分參會單位
郵件提醒通知