Artificial Intelligence (AI)
「エージェンティックAI」の実現:テクノロジーとサイバーセキュリティの新たなパラダイムの定義
本稿では、最新調査からエージェンティックAIシステムを理解するための枠組みと中核的な特性を明らかにするとともに、使用に伴うセキュリティ上の意味について考察します。
すべてのAIシステムが「エージェンティック(主体的)」であると主張していても、実際にそうであるとは限りません。技術がかつてないスピードで進化する中、本当にエージェンティックなAIと、業界の流行語を利用しているだけのAIとを見分けるのはますます難しくなっています。AIが真にエージェンティックであるとはどういうことかを定義することは、単なる分類作業ではなく、こうしたシステムがもたらす広範なセキュリティ上の影響を理解するための重要な一歩となります。
従来型のAIは、あらかじめ決められたルールや静的なワークフローに従って動作するのが一般的でしたが、エージェンティックシステムは、自律的な判断を行い、監督なしで動作し、時間の経過とともに動的に適応するよう設計されています。この柔軟性によって、これまでにない強力な能力が引き出される一方で、同時にこれまで存在しなかったアタックサーフェスやサイバーセキュリティ上の課題も新たに生まれています。これらは迅速な対応が求められる問題です。
本稿では、エージェンティックAIシステムを理解するための構造的な枠組みを紹介し、その中核的な特性を整理しながら、これらの特徴がもたらすセキュリティ上の問題について概観します。具体的には以下の内容を取り上げます。
- エージェンティックAIシステムの本質的な特性を捉える定義
- エージェンティックシステムを従来のAIと分ける主な特徴の詳細な分析
- それらの特徴が引き起こすセキュリティ課題の概要
エージェンティックAIシステムとは何か?
エージェンティックAI(agentic AI)とは、自律的なエージェントを通じて複雑なタスクを解決することを目的としたソフトウェアアーキテクチャのことです。各エージェントは、特定の分野において特定の機能を果たすように設計されており、たとえばウェブクライアントなどのツールを活用して外部の世界とやり取りを行います。これらのツールによって、エージェントは情報を収集し、環境に働きかけ、他のシステムと通信することが可能になります。なお、こうしたエージェントが必ずしもAIによって動作するとは限りませんが、通常はAIを活用しており、その場合にはAIエージェントと呼ばれます。
エージェントは、オーケストレーター(orchestrator)と呼ばれる推論エンジンによって管理されます。このオーケストレーターは、目標の特定、計画の立案、そしてエージェントのワークフローの調整を担い、目的達成に導きます。エージェントは、こうしたシステムの中で具体的な行動を担う基本単位として機能しています。
現在、「エージェンティック」という言葉はAIに関する議論のなかで広く使われていますが、そのすべてが本質的にエージェンティックなシステムであるとは限りません。実際には、あらかじめ決められたタスクを自動化するだけの単純なエージェントが「エージェンティック」と称される例も多く、そうしたシステムには本来の意味での「エージェンティック性」が欠けている場合があります。こうした混乱を踏まえ、今後の技術革新にも対応できる柔軟性を持ちつつ、誇張された言説と本質的な進展を峻別できるだけの厳密さを備えた、信頼できる定義を提示する必要があります。
たとえば現時点では、エージェンティックAIに関する議論の多くが、大規模言語モデル(LLM: Large Language Model)を活用してワークフローの最適化やプロセスの自動化を行うシステムを中心に展開されています。しかし将来的には、エージェンティックシステムは自動運転車、ロボティクス、産業用オートメーションといったサイバーフィジカル領域へと広がっていくことが予想されます。これらの応用では安全性が最も重要な要素となるため、それに対応した異なる形式のオーケストレーター(orchestrator)も必要になります。今回提示するエージェンティックAIの定義は、そうしたオーケストレーターも含めて想定したものです。
この包括的な定義を導くために、さまざまな分野の専門家や企業がエージェンティックAIをどのように捉えているかを分析しました。具体的には、Andrew Ng氏のような学術研究者、Google、IBM、NVIDIAといったテクノロジー企業、そしてAIの進展を報じる信頼性の高いメディアの見解を調査し、それらの情報源で頻繁に言及されている要素を抽出しました。こうして浮かび上がった共通の特徴をもとに、エージェンティックAIの定義的要素として以下のようにまとめました。
ゴール指向型 (Goal-Oriented):
特定の目的を自律的に追求する能力を持ち、ユーザからの最小限の入力で行動できる(高度なエージェンシーと高い自律性を併せ持つ)。
- Craig, L. (2024). What is agentic AI? Complete guide. Search Enterprise AI.
- G. Davies, A. Bessa. (2024). What is Agentic AI? Definition, features, and governance considerations. KNIME.
- Stryker, C. (2024). Agentic AI. IBM.
- Bottington, A. (2024). Practical Applications of Prompt Engineering. Integrail.ai.
- Griffith, E. (2024). A.I. Isn’t Magic, but Can It Be ‘Agentic’? The New York Times.
- Vinky, G. (2024). What is Agentic AI? An In-Depth Exploration. RPATech.
- Kapoor, S., Stroebl, B., Siegel, Z. S., Nadgir, N., & Narayanan, A. (2024). Ai agents that matter.
- LangChain Blog. (2024). What is an AI agent? LangChain.
- Andrew Ng. (2024). Andrew Ng Explores The Rise Of AI Agents And Agentic. Snowflake Inc.
- Lisowski, E. (2024). AI Agents vs Agentic AI: What’s the Difference and Why Does It Matter? Medium.
- Pounds, E. (2024). What Is Agentic AI? NVIDIA Blog.
- Kaggle.com (2025). Agents. Google.
- Kamal, A., Ansari, T., Chapaneri, K. (2024). Agentic AI—the new frontier in GenAI: An executive playbook. PwC.
コンテキスト認識 (Context-Aware):
環境を認識・解釈し、その状況に応じた判断を下す能力を持つ。
- Craig, L. (2024). What is agentic AI? Complete guide. Search Enterprise AI.
- G. Davies, A. Bessa. (2024). What is Agentic AI? Definition, features, and governance considerations. KNIME.
- Stryker, C. (2024). Agentic AI. IBM.
- Bottington, A. (2024). Practical Applications of Prompt Engineering. Integrail.ai.
- Griffith, E. (2024). A.I. Isn’t Magic, but Can It Be ‘Agentic’? The New York Times.
- Vinky, G. (2024). What is Agentic AI? An In-Depth Exploration. RPATech.
- Kapoor, S., Stroebl, B., Siegel, Z. S., Nadgir, N., & Narayanan, A. (2024). Ai agents that matter.
- Lisowski, E. (2024). AI Agents vs Agentic AI: What’s the Difference and Why Does It Matter? Medium.
- Pounds, E. (2024). What Is Agentic AI? NVIDIA Blog.
- Kaggle.com (2025). Agents. Google.
- Kamal, A., Ansari, T., Chapaneri, K. (2024). Agentic AI—the new frontier in GenAI: An executive playbook. PwC.
多段階推論 (Multi-Step Reasoning):
複雑な問題をより小さく管理しやすいステップに分解し、各ステップを実行するために専門のエージェントを調整・活用する能力を持つ。
- Stryker, C. (2024). Agentic AI. IBM.
- Vinky, G. (2024). What is Agentic AI? An In-Depth Exploration. RPATech.
- Kapoor, S., Stroebl, B., Siegel, Z. S., Nadgir, N., & Narayanan, A. (2024). Ai agents that matter.
- LangChain Blog. (2024). What is an AI agent? LangChain.
- Andrew Ng. (2024). Andrew Ng Explores The Rise Of AI Agents And Agentic. Snowflake Inc.
- Pounds, E. (2024). What Is Agentic AI? NVIDIA Blog.
- Kaggle.com (2025). Agents. Google.
- Kamal, A., Ansari, T., Chapaneri, K. (2024). Agentic AI—the new frontier in GenAI: An executive playbook. PwC.
行動駆動型 (Action-Driven):
ソフトウェアのAPI呼び出し、外部システムとのインタラクション、サイバーフィジカル環境におけるアクチュエーターの制御など、具体的なアクションを実行する能力を持つ。
- Craig, L. (2024). What is agentic AI? Complete guide. Search Enterprise AI.
- G. Davies, A. Bessa. (2024). What is Agentic AI? Definition, features, and governance considerations. KNIME.
- Stryker, C. (2024). Agentic AI. IBM.
- Bottington, A. (2024). Practical Applications of Prompt Engineering. Integrail.ai.
- Griffith, E. (2024). A.I. Isn’t Magic, but Can It Be ‘Agentic’? The New York Times.
- Vinky, G. (2024). What is Agentic AI? An In-Depth Exploration. RPATech.
- Kapoor, S., Stroebl, B., Siegel, Z. S., Nadgir, N., & Narayanan, A. (2024). Ai agents that matter.
- Lisowski, E. (2024). AI Agents vs Agentic AI: What’s the Difference and Why Does It Matter? Medium.
- Pounds, E. (2024). What Is Agentic AI? NVIDIA Blog.
- Kaggle.com (2025). Agents. Google.
自己改善能力 (Self-Improving):
過去の結果から継続的に学習し、時間とともにパフォーマンスを向上させる能力を持つ。
- Stryker, C. (2024). Agentic AI. IBM.
- Bottington, A. (2024). Practical Applications of Prompt Engineering. Integrail.ai.
- Vinky, G. (2024). What is Agentic AI? An In-Depth Exploration. RPATech.
- Lisowski, E. (2024). AI Agents vs Agentic AI: What’s the Difference and Why Does It Matter? Medium.
- Pounds, E. (2024). What Is Agentic AI? NVIDIA Blog.
- Kaggle.com (2025). Agents. Google.
- Kamal, A., Ansari, T., Chapaneri, K. (2024). Agentic AI—the new frontier in GenAI: An executive playbook. PwC.
したがって、AIシステムがエージェンティックと見なされるためには、上記5つの特徴すべてを備えていることが求められます。これらのうち2つ以上を欠いている場合は、そのシステムが「エージェンティック」と呼ばれることに対して懐疑的な視点を持つべきです。
これらの特徴は、従来型のAIとの違いを明確にするためだけでなく、エージェンティックシステムが抱える特有の脆弱性を理解するうえでも極めて重要です。次のセクションでは、この5つの特徴をさらに詳しく掘り下げ、それがどのように新たなサイバーセキュリティ上のリスクを生み出すかを検討していきます。
エージェンティックプロセスにおけるサイバーセキュリティリスク
エージェンティックAIは、あらかじめ定められたタスクを実行するだけのものではありません。そこには、ゴール指向の行動、動的な環境への適応、多段階の推論、行動の実行、そして継続的な自己改善といった特徴が含まれています。これら5つの特徴は「エージェンティックプロセス」と呼ばれることが多く、エージェンティックAIシステムが複雑な環境で機能するための基盤となっています。
このエージェンティックプロセスについては、NVIDIAの4段階モデルで的確に表現されています。それは、認識(Perceive)、推論(Reason)、行動(Act)、学習(Learn)という流れです。次のセクションでは、これら各段階について詳しく解説し、それぞれがエージェンティックAIの定義的な特徴とどのように対応しているのかを確認していきます。そして、こうした特徴がもたらす独自のセキュリティ課題についても検討し、エージェンティックAIがサイバーセキュリティの領域をどのように変えていくのかを包括的に理解していきます。
ステージ0: 目標の設定
エージェンティックAIシステムがそのプロセスを開始するためには、最初に目標が設定されなければなりません。この目標が、システムの意思決定、行動、全体的な機能性を駆動する土台となります。明確に定義された目標がなければ、システムには方向性がなく、その環境の中で効果的に機能することはできません。
ただし、目標を設定するだけでシステムがエージェンティックであるとは言えません。前述のとおり、エージェンティックと見なされるには、そのシステムが「ゴール指向型」である必要があります。つまり、単に目標に向かって動作するだけでなく、人間の介入を最小限に抑えながら、その目標を達成することを目的としている必要があります。この特性を実現するためには、主体性(Agency)と自律性(Autonomy)という2つの重要な要素が求められます。
- 主体性(Agency)とは、目標を追求するために独立して意思決定を行う能力のことを指します。エージェンティックシステムにおいては、オーケストレーターがこのエージェンシーを担い、目標達成に必要な計画を立て、各ステップを指示します。
- 自律性(Autonomy)とは、その意思決定を人間の関与なしに実行する能力です。この部分を担うのがエージェントであり、オーケストレーターが立てた計画に基づいて具体的なタスクを実行し、ユーザの指示や外部からの干渉を必要とせずに目標の達成を目指します。
たとえば、GPT-4やGeminiのようなAIデジタルアシスタント(こちらの記事で詳述)がエージェンティックなシステムであるとは言えません。これらのシステムはリアクティブ(Reactive)であり、メールの下書きを最適に生成するなどのタスクにおいて主体性(Agency)を示すことはありますが、明示的なユーザの要求なしに動作することができないため、自律性(Autonomy)を欠いています。これに対し、エージェンティックなシステムは状況に応じて自律的に行動を起こすプロアクティブ(Proactive)なシステムです。
このように、ゴール指向の行動はエージェンティックシステムの一つの特徴というだけではなく、計画から実行までのすべての段階を貫く基本原則となっています。ただし、それに伴う自律性は、重大なサイバーセキュリティ上のリスクももたらします。
主要な懸念の一つは目標の改ざん(goal manipulation)です。これは、攻撃者がエージェンティックシステムの目標を操作し、意図しない、あるいは悪意のある結果へと導くリスクです。オーケストレーターの脆弱性を突くことで、こうした改ざんが実行される可能性があります。
もう一つの重要なリスクは、ユーザによる監視が行き届かないことに起因します。監督なしで動作するシステムは、本来の運用範囲を逸脱し、倫理的・法的・業務的な制約に反する不正な行動を取る恐れがあります。たとえば、金融取引の実行や機密データへのアクセスといった行動を制限していても、それだけでは不十分です。意思決定のためのガードレールとなるべきこれらの制約が突破された場合、システムは意図しない、あるいは有害な振る舞いを引き起こす可能性があります。
ステージ1: 環境の認識
エージェンティックプロセスのステージ1は認識(Perceive)であり、ここではエージェントがデータを収集・分析し、システムの意思決定を導く役割を担います。この段階では「コンテキスト認識」が中心的な役割を果たします。つまり、システムが物理的な環境を解釈し、外部のデータソースにアクセスすることで、静的な入力ではなくリアルタイムの情報に基づいた判断を可能にするのです。あらかじめ定義されたタスクを実行するのではなく、エージェンティックシステムは外部の状況を監視し、それらの変化に応じて動的に適応します。
たとえば、ウォルマートは、在庫管理システムの変革にエージェンティックAIを活用しました。このシステムの主な目標は、販売パターンに基づいて棚の商品を補充することですが、急な天候の変化や地域イベントなどを検知した場合、それに応じて需要が高まると予測される商品を優先するように動的に判断を切り替えることができます。従来の在庫管理システムが固定化されたルールに頼っていたのに対し、エージェンティックアプローチではリアルタイムで状況に応じた柔軟な対応が可能となっています。
しかしながら、このような環境への動的な適応能力は、サイバーセキュリティ上のリスクも伴います。
大きな懸念の一つはデータ改ざん(data manipulation)です。エージェンティックシステムは意思決定のために外部データに依存しているため、攻撃者が偽のデータを注入することで、誤った判断に導く可能性があります。たとえば、気象データやイベント情報を操作することで、悪意のある者がウォルマートのシステムに誤った商品を優先させ、非効率や業務上の失敗を引き起こすおそれがあります。
もう一つのリスクはサービス妨害(denial-of-service)です。攻撃者がエージェントに必要なデータへのアクセスを妨げた場合、たとえば使用するツールを侵害するなどして、オーケストレーターは意思決定に必要な情報を取得できなくなります。その結果、エージェンティックシステムは環境の変化に対応できなくなったり、最悪の場合、完全に機能停止してしまったりする可能性があります。
ステージ2: 推論と次のステップの計画
ステージ2、すなわち推論(Reason)では、オーケストレーターが前段階で収集した情報を分析し、目的達成のための戦略を策定します。この段階では「多段階推論」が不可欠となります。これにより、複雑なタスクをより小さく管理しやすいステップに分解し、状況の変化に応じて判断を調整しながら問題に対応することができます。課題を一挙に解決するのではなく、さまざまな側面に分けて順を追って対処していくのが特徴です。
たとえば、Netflixが採用しているようなエージェンティックAIベースのレコメンデーションシステムは、単に視聴履歴に基づいてコンテンツを提案するだけではありません。多段階推論を通じて、まずユーザが過去にどのようにストリーミングサービスを利用したかを分析し、個別の好みを把握します。次に、ユーザがいる地域で何が人気かといったトレンド情報を加味し、最後に最近の視聴傾向やコンテンツの視覚的特徴を考慮して、時間が経っても関連性の高い提案を行うよう調整します。
エージェンティックAIは、サイバーセキュリティの分野にも応用が可能です。この場合、システムは多段階推論を用いて、インシデントの調査や影響の軽減策を自律的に実施します。たとえば、異常な通信パターンを検知した際、最初に送信元のIPアドレスをオープンソースのインテリジェンスと照合し、既知の脆弱性との関連性を確認します。次に、社内インフラのどのデータが標的となっているかを特定し、その後、IPアドレスのブロックや横展開の兆候のスキャンといった防御措置を講じます。類似の例としては、Trend Cybertronが挙げられます。これは監視対象環境からセキュリティ態勢や脅威データを取り込み、自動的に脅威シナリオを推定し、それに応じた対応を取ることで、将来のセキュリティ課題に先回りして対処します。
多段階推論は優れた問題解決能力を提供する一方で、エージェンティックなエコシステムにおいてはサイバーセキュリティ上のリスクももたらします。攻撃者は、オーケストレーターの推論プロセスに干渉・妨害しようとする可能性があり、これによって偏った意思決定が行われる恐れがあります。これは特に重要な問題です。なぜなら、オーケストレーターは計画の策定とエージェントの指揮を担っているため、この段階での操作が後の不適切あるいは有害な行動につながる可能性があるからです。
特に懸念されるのは、LLMをオーケストレーターとして使用するエージェンティックシステムです。これらのモデルは学習データと確率的推論に依存しており、敵対的攻撃(adversarial attacks)に対して脆弱です。悪意ある攻撃者がオーケストレーターを欺くよう巧妙に設計した入力を与えることで、意図しない判断を引き出すことができます。また、LLMを使ったオーケストレーターはバックドア攻撃にもさらされやすく、特定の条件下でのみ発動する「トリガー」をモデル内部に埋め込まれると、本来とは異なる意思決定が引き起こされる危険性があります。
とはいえ、すべてのエージェンティックシステムがLLMに依存しているわけではありません。たとえば自動運転車のようなシステムでは、安全性が重要であるため、予測可能な意思決定を行う決定論的オーケストレーターが採用されることもあります。このようなサイバーフィジカルシステムにおいては、オーケストレーターが侵害された場合の影響は極めて深刻です。エージェンティックシステムの意図しない行動が物理環境に直接作用することで、命に関わる危険を引き起こす可能性すらあります。
ステージ3: 意思決定から行動へ
ステージ3、つまり行動(Act)の段階では、計画から実行への移行が行われます。これまで環境データの収集と分析を担っていたエージェントたちは、ここで運用上の役割を引き受け、実際のタスクを環境内で遂行します。こうした行動主導の能力は、APIの呼び出しやデータベースのクエリ、あるいはアクチュエーターの操作といったツールによって実現され、オーケストレーターが立てた戦略をデジタルおよび物理空間の中で具体的な成果へと変換していきます。
その大規模な事例の一つが、シンガポールのスマートシティ・インフラです。ここではエージェンティックシステムが交通の流れ、エネルギー分配、公共の安全などを統合的に管理しています。たとえば、渋滞の発生、電力需要の変動、安全上のインシデントなどがリアルタイムで検知・分析されると、オーケストレーターが最適な対応を判断し、エージェントがそれに基づいて行動を起こします。信号を調整して渋滞を緩和したり、電力の供給先を変更して停電を防いだり、警察車両を出動させて治安を確保したりといった具合です。それぞれのエージェントは自らの担当領域で専用のツールを使ってタスクを遂行し、都市機能の円滑さ・効率性・安全性を保っています。
しかし、エージェントが具体的な行動を担うという性質上、彼らは攻撃者にとって魅力的な標的ともなります。たとえば、エージェントのなりすましというリスクがあり、悪意のある第三者が正規のエージェントを装ってシステムを欺き、意思決定に関する機密情報を抜き取るおそれがあります。さらに、攻撃者がエージェントを操作してそのツールを誤用させると、有害な行動を引き起こすことも考えられます。たとえば、交通制御を担うエージェントがだまされて信号タイミングを不適切に変更してしまえば、深刻な渋滞や事故のリスクが高まります。
こうしたリスクは、エージェンティックシステムが単一のエージェントに依存している場合にも、複数のエージェントがそれぞれ独立して動作している場合にも当てはまります。しかし、複数のエージェントが互いに連携し、順序的または階層的なワークフローを通じて協働する場合には、これらのリスクがさらに増幅する可能性があります。実際、一つのエージェントにおける目標のずれがシステム全体に波及し、他のエージェントの結果に影響を与えて、意図しない行動の連鎖反応を引き起こすことがあります。
将来的には、まったく新しい脅威のシナリオも出現するかもしれません。現在のところ、エージェンティックシステムは、あらかじめ定義された役割を持つ固定的なエージェント群に依存しています。しかし今後は、必要に応じて既存のシステムに動的に統合できるエージェントのマーケットプレイスが登場する可能性があります。これにより柔軟性は大きく向上しますが、同時に新たなリスクも伴います。たとえば、マーケット操作のような形でのサプライチェーン攻撃が起こる可能性があります。攻撃者が評価、レビュー、推薦情報などを操作することで、悪意のあるエージェントの評価を引き上げたり、正当なエージェントの信用を損なったりする危険性が出てくるのです。
ステージ4: 経験からの学習
学習(Learn)は、エージェンティックプロセスにおける最終段階であり、システムが過去の経験を評価し、今後の行動を最適化するプロセスを指します。この段階では「自己改善」が重要な役割を果たし、エージェンティックシステムが継続的に進化し続けることを可能にします。過去の判断や成功、失敗を振り返ることで、オーケストレーターはその戦略を時間とともに調整し、より正確な判断とシステム全体の性能向上を実現します。
従来のシステムは性能を向上させるために再プログラミングや人の介入が必要でしたが、エージェンティックAIシステムは自律的に適応していきます。ただし、「真の自己改善」はまだ発展途上にあります。将来的にはエージェンティックAIの主要な特徴となると期待されている一方で、現時点では初歩的な自己学習機能しか備えていない、あるいはその機能がまったく存在しないシステムも少なくありません。そのため、継続的学習の可能性はあるものの、これは今後の技術的成熟に伴って進化していく分野といえます。
確かなのは、この能力が新たなサイバーセキュリティ上のリスクをもたらすということです。たとえば、偏ったデータや敵対的なデータから学習してしまうと、予期しない結果を招く可能性があります。自己学習の過程で有害なパターンが強化されてしまえば、オーケストレーターは誤った判断を繰り返すようになるかもしれません。
さらに、オーケストレーターに加えて、一部のエージェンティックAIシステムでは、環境との相互作用を通じて自身の行動を洗練させる「自己適応型エージェント」にも依存しています。こうしたエージェントの学習データセットに、攻撃者が隠されたトリガーを仕込むことで、特定の条件下で悪意ある動作を引き起こすリスクがあります。このような行動は検知されずに進行する可能性があり、結果的にエージェントの本来の機能が損なわれるおそれがあります。
結論
エージェンティックAIへの期待が高まるなかで、すべてのAIシステムが必ずしもエージェンティックであるとは限らないことを理解することが重要です。AIシステムがエージェンティックと見なされるためには、5つの特徴を備えている必要があります。それは、ゴール指向であること、コンテキスト認識ができること、多段階の推論を行うこと、行動主導型であること、そして自己改善能力を持つことです。これらの特徴が、新たな技術的パラダイムを定義しています。それは革新的な可能性を切り拓く一方で、これまでにない新たなサイバーセキュリティの課題も伴います。
次回の記事では、エージェンティックAIシステムのアーキテクチャに焦点を当て、主要な構成要素と、それぞれに特有のセキュリティリスクについて詳しく解説します。また、従来のサイバーセキュリティ上の課題がエージェンティックAIの文脈でも依然として重要である理由を示し、こうした進化する技術を守るために必要な対策についても考察していきます。
その他の参考文献
- Luck, M. & d'Inverno, M. (1995). A Formal Framework for Agency and Autonomy. Icmas. Vol. 95. 1995.
- Ciancaglini, V., Gariuolo, S., Hilt, S., McArdle R. & Vosseler, R. (2024). AI Assistants in the Future: Security Concerns and Risk Management. Trend Micro.
- Ji, J. (2025). Beyond the Chatbot: Agentic AI with Gemma. Google.
- Walmart.com (2024). Walmart’s Element: A machine learning platform like no other. Walmart.
- Muralidharan, G. (2023). How Netflix Uses Artificial Intelligence – Argoid.
- Morin, C. & Morin, C. (2024). What is multi-step reasoning? Sysdig.
- Trend Micro Newsroom. (2025). Trend Micro Puts Industry Ahead of Cyberattacks with Industry’s First Proactive Cybersecurity AI. Trend Micro.
- Do, M. (2024). Artificial Intelligence In Singapore: Transforming Singapore Into The World’s First Smart Nation – SavvycomSoftware.
- Gautam, A. (2024). Singapore Introduces AI-Powered Traffic Management System: A Step Towards Smart City Success. Aleaitsolutions.
- Anthropic.com. (2024). Building effective agents. Anthropic.
参考記事:
The Road to Agentic AI: Defining a New Paradigm for Technology and Cybersecurity
By Salvatore Gariuolo and Vincenzo Ciancaglini
翻訳:与那城 務(Platform Marketing, Trend Micro™ Research)