2025年8月26日 星期二
2025年8月22日 星期五
2025 08 22 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 恭喜 左永安顧問 通過 ICAP 職能導向課程 課程名稱:生成式AI行銷素材實 務班 30小時認證 T1.1 選擇AI工具 T2.1 遵守AI使用規範 T3.1 應用AI創造行銷素材
2025 08 22 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 恭喜 左永安顧問 通過 ICAP 職能導向課程 課程名稱:生成式AI行銷素材實 務班 30小時認證 T1.1 選擇AI工具 T2.1 遵守AI使用規範 T3.1 應用AI創造行銷素材
恭喜! 左永安顧問
通過 ICAP 職能導向課程
課程名稱:生成式AI行銷素材實 務班
30小時認證
訓練期間:民國114年05月05日起 至114年05月16日
T1.1 選擇AI工具
T2.1 遵守AI使用規範
T3.1 應用AI創造行銷素材
標章編碼:KMCT0046-25
2025年8月20日 星期三
2025 08 20 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 TTQS 人才發展品質管理系統 三類專業人員 您好:感謝您參加 114年TTQS三類專業人員回流訓練課程 課程名稱:個案研討 日期:114年08月29日(星期五) 時間:09:30~16:30
2025 08 20 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 TTQS 人才發展品質管理系統 三類專業人員 您好:感謝您參加 114年TTQS三類專業人員回流訓練課程 課程名稱:個案研討 日期:114年08月29日(星期五) 時間:09:30~16:30
三類專業人員 您好:
感謝您參加 114年TTQS三類專業人員回流訓練課程
課程名稱:個案研討
講師:****
日期:114年08月29日(星期五)
時間:09:30~16:30(報到時間:09:20~09:30)
地點:台北市大安區*****
2025年8月11日 星期一
2025年8月8日 星期五
2025 08 08 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 永續管理師 AI企畫師 AI 管理顧問師 AI 應用規劃師 開源地端模型 與 智慧製造 開源地端模型 透過在 本地端部署具有 1.可自訂性 2.低延遲 3.高安全性 的AI 演算法 數位孿生技術 與 虛擬優化虛實融合模擬– 數位孿生 是指在 虛擬環境中建立 1.產品、 2.生產線或 3.整座工廠 的精確數位 模型
2025 08 08 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 永續管理師 AI企畫師 AI 管理顧問師 AI 應用規劃師 開源地端模型 與 智慧製造 開源地端模型 透過在 本地端部署具有 1.可自訂性 2.低延遲 3.高安全性 的AI 演算法 數位孿生技術 與 虛擬優化虛實融合模擬– 數位孿生 是指在 虛擬環境中建立 1.產品、 2.生產線或 3.整座工廠 的精確數位 模型
開源地端模型 與 智慧製造
開源地端模型 透過在 本地端部署具有
1.可自訂性
2.低延遲
3.高安全性
的AI 演算法,
能夠實現智慧製造中的
1.即時品質 監控
2.預測性 維護
3.生產流程 優化
開源地端模型指的是
那些 公開
1.釋出其源代碼、
2.模型架構 與
3.部分或全部權 重,並且
4.能夠在本地硬體(例如個人電腦或內部伺服器)上
部署 與 運行的 語言模型。
•此類模型允許使用者在無需依賴雲端服務的情況下,
自行管理 與 調整模 型,從而更好地保護
資料隱私 並 滿足個別化需求。
主要特性與優勢–
靈活度高:使用者可按需求 查閱、修改與優化 模型。
隱私保護:資料在本地運算,降低 外洩風險。
即時響應:減少 網路 傳輸延遲,提高 系統 反應速度。
常見的開源地端模型–
GPT-2:
由 OpenAI發布,擁有多個不 同參數規模的版本,
其中較小版本對硬 體資源要求較低。
LLaMA:
Meta發布的系列模型,雖然 使用上可能需遵循特定限制
( LLaMA 的 原始權重僅對符合條件的 學術研究者 及 機構 開放),
但也被廣泛 應用於 本地化 研究與實驗–
T5 系列:
由 Google 提出,該模型基 於「文本轉文本」架構,可根據任務需 求進行微調。
針對資源有限的情況,可 選擇 T5-Small 或 T5-Base 版本。
數位孿生技術 與 虛擬優化
虛實 融合模擬– 數位孿生
是指在 虛擬環境中建立
1.產品、
2.生產線或
3.整座工廠
的 精確 數位 模型,並以 實際資料 加以驅動。
未來更多製造商 將運用 數位孿生 來 優化生產。
透過在虛擬工廠中模擬 各種 生產 參數變化,AI可以預測 不同設定對
產出、品質的影響,協助 找出 最佳方案。
產品 研發 與 產線 導入–數位孿生
除 優化現有流程,對 新產品導入 也 極為有利。
研發團隊 可先 行建立 產品的 數位孿生,
在虛擬環境中 模擬 製造與組裝過程,預估 良 率 和 周期。
若結果不理想,可在虛擬模型中 反覆修改 設計 和 製程,
直到達標 再轉 到 實體試產,大幅縮短 研發週期。
2025年8月7日 星期四
2025 08 08 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 永續管理師 AI企畫師 AI 管理顧問師 AI 應用規劃師 生成式 AI 的實現方式多種多樣 生成對抗網路(GAN):Transformer架構: 是一種 以 自注意力機制 為核心 的 神經網路模型, 主 要應用於自然語言處理(NLP)等領域。
2025 08 08 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 永續管理師 AI企畫師 AI 管理顧問師 AI 應用規劃師 生成式 AI 的實現方式多種多樣 生成對抗網路(GAN):Transformer架構: 是一種 以 自注意力機制 為核心 的 神經網路模型, 主 要應用於自然語言處理(NLP)等領域。
2025 08 08 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 永續管理師 AI企畫師 AI 管理顧問師 AI 應用規劃師 生成式 AI 的實現方式多種多樣 生成對抗網路(GAN):Transformer架構: 是一種 以 自注意力機制 為核心 的 神經網路模型, 主 要應用於自然語言處理(NLP)等領域。
生成式 AI 的實現方式多種多樣
生成式 AI的實現方式多種多樣,包括
不同的 模型架構 與 演算法:
生成對抗網路(GAN):
由一個 生成器 和一個 鑑別器 組成,
透過 競賽方式 讓 生成器 產生 越來越逼真 的資料,
多用於 圖像 等內容的生成 。
Transformer架構:
是一種 以 自注意力機制 為核心 的 神經網路模型,
主 要應用於自然語言處理(NLP)等領域。
它的 關鍵創新 在於不使用 傳統 的
循環神經網路 (RNN:一個字一個字慢慢看),
而是 透過 同時關注 序列 中所有元素 之間的 關係 來捕捉資訊。
目前 文字領域中 最主流 的是 以Transformer為基礎 的
大型語言模型(LLM) ,如 GPT-4,
能夠擅長理解 上下文 並 生成 長篇連貫的文本。
2025 08 07 左永安 顧問 企業導入AI五大步驟– 1.需求定義– 2.現狀評估 與 資料準備– 3.組建團隊 與 治理架構– 4.模型 選型 與 開發– 5.試點 測試 與 優化
2025 08 07 左永安 顧問 企業導入AI五大步驟– 1.需求定義– 2.現狀評估 與 資料準備– 3.組建團隊 與 治理架構– 4.模型 選型 與 開發– 5.試點 測試 與 優化
企業導入AI五大步驟–
1.需求定義–
從了解自己的商業模式與痛點開始:
具體的目標客群是誰?–
差異化的服務/產品為何?–
關鍵的活動與資源為何?
2.現狀評估 與 資料準備–
3.組建團隊 與 治理架構–
a.在組建團隊與治理架構時,企業應 成立跨部門AI專責小組,
包括 業務 分析師、工程師、資料科學家及IT 人員,
以確保 技術 與 業務需求能夠 緊密協同。
b.同時需制定AI相關規範與倫理準則 ,
涵蓋資訊安全、隱私保護及模型 可解釋性,
以強化 風險控管 與 問責 機制。
4.模型 選型 與 開發–
5.試點 測試 與 優化
2025年8月4日 星期一
2025 08 04 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 永續管理師 AI企畫師 AI 管理顧問師 AI 應用規劃師 模型訓練 是 機器學習過程 的 核心階段,其目標是透過學習 輸入特徵 與 輸出結 果 之間的 映射關係,找出最優的模型參數。 模型訓練 通 常涉及 1.損失函數的設置、 a. 均方誤差(Mean Squared Error, MSE): b. 交叉熵損失(Cross-Entropy Loss): 2.優化演算法的選擇 以及 3.避免過擬合的策略。1. 損失函數2. 優化演算法 a. 批次梯度下降(Batch Gradient Descent, BGD):b. 隨機梯度下降(Stochastic Gradient Descent, SGD): c. Adam(Adaptive Moment Estimation)演算法:3.. 過擬合的防範 Regularization: Early Stopping: Data Augmentation:
2025 08 04 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 永續管理師 AI企畫師 AI 管理顧問師 AI 應用規劃師 模型訓練 是 機器學習過程 的 核心階段,其目標是透過學習 輸入特徵 與 輸出結 果 之間的 映射關係,找出最優的模型參數。 模型訓練 通 常涉及 1.損失函數的設置、 a. 均方誤差(Mean Squared Error, MSE): b. 交叉熵損失(Cross-Entropy Loss): 2.優化演算法的選擇 以及 3.避免過擬合的策略。1. 損失函數2. 優化演算法 a. 批次梯度下降(Batch Gradient Descent, BGD):b. 隨機梯度下降(Stochastic Gradient Descent, SGD): c. Adam(Adaptive Moment Estimation)演算法:3.. 過擬合的防範 Regularization: Early Stopping: Data Augmentation:
模型訓練
模型訓練 是 機器學習過程 的 核心階段,其目標是透過學習
輸入特徵 與 輸出結 果 之間的 映射關係,找出最優的模型參數。
模型訓練 通 常涉及
1.損失函數的設置、
2.優化演算法的選擇以及
3.避免過擬合的策略。
1.. 損失函數
損失函數(Loss Function)是一種用來衡量 模型預測值 與 實際目標
之間差異的 函數。
透過損失函數的計算,模型可以得知 自身的損失(Loss,代表不準確度),
損失值越高,表示模型預測結果與實際值的誤差越大,反之則表示模型越準確。
因此,損失函數 可以視為 評估模型好壞的指標。
在模型訓練過程中,系統會不斷計算損失,並
透過 優化器(Optimizer)
a. 均方誤差(Mean Squared Error, MSE):
用於迴歸任務,計算 預測值 與 真實值 之 間 平方誤差 的 平均值。
b. 交叉熵損失(Cross-Entropy Loss):
用於分類任務,衡量預測概率分佈與真實分 佈之間的差異。
2. 優化演算法
模型的訓練過程 透過 優化演算法 調整參數,以最小化 損失函數的值。
最常見 的優化演算法是 梯度下降法 及其變種:
使用 梯度下降(Gradient Descent)
等方法來最小化損失,藉此降低模型的誤差,以達 到最佳化的目的。
常見的損失函數包括:
a. 批次梯度下降(Batch Gradient Descent, BGD):
基於整個 數據集 計算 損失函數 的梯度 並 更新參數。
b. 隨機梯度下降(Stochastic Gradient Descent, SGD):
每次迭代僅使用一個樣本來 更新參數,速度較快但收斂不穩定。
c. Adam(Adaptive Moment Estimation)演算法:
結合了 動量法 和 RMSProp,能夠 自適應學習率,是目前最廣泛使用的
優化方法之一。
3.. 過擬合的防範
過擬合是模型在訓練數據上表現優異,但在測試數據上 表現不佳的現象。
為 了避免過擬合,通常採用以下策略:
Regularization:
在損失函數中添加懲罰項,如L1和 L2正則化。
Early Stopping:
當模型在驗證集上的表現開始下降時,停止訓練。
Data Augmentation:
透過 隨機旋轉、翻轉等方式 擴展 訓練數據集,提升模型的 泛 化能力。