<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>AI Security on AI Lab @ Yuting</title><link>https://ailab.yuting.cc/tags/ai-security/</link><description>Recent content in AI Security on AI Lab @ Yuting</description><image><title>AI Lab @ Yuting</title><url>https://ailab.yuting.cc/images/ai-cover.png</url><link>https://ailab.yuting.cc/images/ai-cover.png</link></image><generator>Hugo -- 0.152.0</generator><language>zh-tw</language><lastBuildDate>Mon, 04 May 2026 11:15:25 +0800</lastBuildDate><atom:link href="https://ailab.yuting.cc/tags/ai-security/index.xml" rel="self" type="application/rss+xml"/><item><title>企業 AI 防禦戰：Cloudflare AI Gateway 與 Google Cloud Model Armor 終極比較</title><link>https://ailab.yuting.cc/posts/cloudflare-vs-model-armor/</link><pubDate>Mon, 04 May 2026 11:15:25 +0800</pubDate><guid>https://ailab.yuting.cc/posts/cloudflare-vs-model-armor/</guid><description>&lt;p&gt;在將生成式 AI 應用推向生產環境時，企業通常會面臨兩大痛點：&lt;strong&gt;「API 成本與流量失控」&lt;/strong&gt; 以及 &lt;strong&gt;「提示注入與機密資料外洩」&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;針對這些挑戰，目前市面上有兩種截然不同的解決思路：一種是從邊緣網路出發的 &lt;strong&gt;Cloudflare AI Gateway&lt;/strong&gt;，另一種則是從雲端深度資安紮根的 &lt;strong&gt;Google Cloud Model Armor&lt;/strong&gt;。本篇文章將從功能、架構、限制到費用，為您進行全面解析。&lt;/p&gt;</description></item><item><title>為生成式 AI 打造堅不可摧的防線：Google Cloud Model Armor 實戰解析</title><link>https://ailab.yuting.cc/posts/securing-ai-applications-model-armor/</link><pubDate>Mon, 04 May 2026 09:44:11 +0800</pubDate><guid>https://ailab.yuting.cc/posts/securing-ai-applications-model-armor/</guid><description>&lt;blockquote&gt;
&lt;p&gt;🔗 &lt;strong&gt;官方資料來源&lt;/strong&gt;：&lt;a href="https://codelabs.developers.google.com/codelabs/production-ready-ai-with-gc/4-securing-ai-applications/securing-ai-applications?hl=zh-cn"&gt;Securing AI Applications with Model Armor&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;在企業大舉導入生成式 AI 的今天，安全團隊面臨了全新的挑戰：如何確保使用者不會透過惡意的「提示注入 (Prompt Injection)」操控模型？又該如何防止 AI 在回覆中不小心洩漏使用者的個人身分資訊 (PII)？&lt;/p&gt;</description></item></channel></rss>