この記事の要約
Scannerを、S3上のデータ保持、indexing、query運用、detections、deployment choice、automation layerの順で整理します。
Scannerを理解するとき、最初に見るべきなのは単発ニュースや顧客名ではありません。より durable なのは、security team が「保持」「探索」「検知」「引き継ぎ」を object storage の上でどう成立させるかです。Scanner の公式 site と docs を読むと、この product は Security Data Lake を短期間で組み上げ、query を中心に運用するための layer として設計されています。
本記事では Scanner の official site、docs、blog を起点に、Scanner を security data lake の operating guide として読む論点を整理します。単発の発表や company snapshot は後半の dated snapshot に分け、前半は S3 上のデータ保持、indexing、search、detections、deployment choice に絞ります。
この版の前提
dated snapshot に分けます| 項目 | 内容 |
|---|---|
| 会社名 | Scanner |
| 主な見方 | Security Data Lake、query runtime、detections、automation layer |
| 中核構造 | S3 上の log retention、compact index files、serverless query、rules |
| 主な deployment | Managed multi-tenant、Managed single-tenant、BYOC / Self-hosted |
| 起点 source | Scanner home、docs overview、How it Works、Detection docs、blog |
| 導入前の問い | どの logs を残すか、誰が detection を持つか、どこで compute を動かすか |
Scannerのアーキテクチャ全体像Scanner の home と docs は、この product を単なる検索ツールではなく、logs を自分の S3 に残したまま検索・検知・自動化へつなぐ security data lake として説明しています。ここで重要なのは「既存 SIEM より安いか」だけではありません。より本質的なのは、保持と探索を同じ query-centric な設計に寄せていることです。
この視点で見ると、Scanner は次の 4 面に分解できます。
| 面 | 見るポイント | なぜ重要か |
|---|---|---|
| 保持 | raw logs と index files がどこに残るか | data custody と vendor lock-in の考え方を左右するため |
| 探索 | ad-hoc query をどれだけ高速に回せるか | incident response の試行回数を決めるため |
| 検知 | query と rule が同じ土台に乗っているか | search と detections の owner を分けすぎないため |
| automation | API や AI workflow をどの層に乗せるか | 人と automation の責務分界を設計するため |
つまり Scanner の本質は、security data をどこへ送るか より security data をどう retain し、どう query に変えるか にあります。ここを見ずに headline news や customer logo だけを追うと、記事はすぐ古くなります。
How it Works の docs では、Scanner の core design principles として、logs は customer の S3 に残し、Scanner は compact な index files を追加する構造が前面に置かれています。schema を先に固定した SQL table へ ETL するのではなく、raw logs を読んで index を作り、そこから selective scan を成立させる流れです。
この設計を読むときは、次の 2 点が特に重要です。
保持と検索が分離されていない raw logs を残す場所と query の入り口が同じ data lake に寄るため、「安く残すが探せない」を避けやすくなります。
index 追加の trade-off が明示されている docs では、uncompressed logs 1 TB あたり index files が約 150 GB という storage ratio の目安が示されています。つまり Scanner は「追加 storage を払って query を成立させる」設計です。
この構造は、security team が retention policy を考えるうえで実務的です。どの logs を長期保持するか、どこまで raw のまま残すか、index files の lifecycle をどう設計するかを、製品選定の早い段階で考えやすくなります。
Scanner の docs では、ad-hoc query と continuous detections の両方が query-first infrastructure の上に乗ると説明されています。検索時には metadata database と index files を使って relevant な data region だけを特定し、Lambda workers が並列に処理します。
How Scanner Achieves Fast Queries の説明は、この product の読み方をかなりはっきりさせます。Scanner は scan を速くするというより、scan しなくていい領域を先に減らす 方向で設計されています。nested field や full-text search を含む security query を、そのたびに巨大な table scan へ落とさないことが価値です。
ここで見ておきたい運用論点は次の通りです。
| 論点 | なぜ重要か |
|---|---|
| query の試行回数 | incident 中に仮説修正を何回回せるかが response quality を左右する |
| nested field 検索 | CloudTrail や SaaS audit logs の調査で現実的な条件を書くため |
| cross-account query | data source が複数 AWS account に分かれていても追えるかを見るため |
| storage と速度の交換 | retention と searchability の balance を早めに見積もるため |
docs 上の benchmark 例では、6 か月分の CloudTrail 調査で 10-15 TB を読む形から、2-5 GB の relevant region だけを見る形へ落とす説明があり、query time と cost の差もそこから導かれています。ここは timeless な保証というより、Scanner がどのボトルネックを潰そうとしているか を示す設計メモとして読むのが安全です。
Scanner を検索製品としてだけ捉えると、もう一つの本体を見落とします。How it Works と Detection Rule Engine の docs では、detections は「別の魔法」ではなく、query を継続評価する仕組みとして設計されています。
重要なのは次の 3 点です。
Any query can become a detection rule ad-hoc search で有効だった条件を、そのまま rule に昇格させやすい構造です。
indexing 時に detection 用の計算も進める aggregation を含む rule では、後から毎回 raw logs を読み直すのではなく、cached aggregation を参照する構造が取られています。
rules は code として持てる docs では GitHub と同期する detection-as-code の流れと、public repository から取り込める out-of-the-box rules が案内されています。
現時点の docs では、out-of-the-box rules は 400+ rules / 21 log sources と説明されています。ここで大事なのは rule 数そのものより、rule owner をどこに置くか です。SOC team が UI だけで管理するのか、platform / detection engineering team が GitHub repository で持つのかで、運用の安定性がかなり変わります。
また Detection Rule Engine の docs には、late-arriving logs を 1 週間まで再評価できること、aggregation を使う rule の方が storage 効率が高いこと、event sink として Webhook / SOAR / Slack / PagerDuty へ送れることが書かれています。Scanner を導入するなら、rule 数より どの query を rule 化し、どこへ通知し、誰が改善を回すか を先に決めた方が実務的です。
ScannerのワークフローScanner の docs は deployment model をかなり明確に切り分けています。ここを読むと、Scanner は単なる hosted SaaS ではなく、governance と infra ownership の取り方まで product の一部として設計していることが分かります。
| モデル | docs の位置づけ | 向いている場面 |
|---|---|---|
| Managed multi-tenant | Scanner 管理の shared AWS account 上で compute を実行 | zero-ops を優先し、日次 volume が比較的小さい場合 |
| Managed single-tenant | Scanner 管理の dedicated AWS account 上で compute を実行 | 専用 compute と isolation を重視する場合 |
| BYOC / Self-hosted | customer の dedicated AWS account に compute を配置 | data governance、AWS control、vendor independence を重視する場合 |
How it Works の docs では、managed multi-tenant はおおむね 500 GB/day まで、single-tenant は 500 GB/day 以上が一つの目安として書かれています。BYOC / Self-hosted の docs では、Scanner 側が account を bootstrap して transfer する標準手順、同一 region 配置で transfer cost を避ける考え方、maintenance を Scanner 側が続ける model まで説明されています。
導入時は「どれが一番 secure か」より、次の順で見る方が分かりやすいです。
Scanner の home page では MCP & APIs が product 面の一つとして置かれています。ただし、ここを product の本体として読むと逆に見誤りやすいです。automation layer は、fast query が先に成立しているから機能する上物 と考えた方が筋が通ります。
2025年12月1日の公式 blog では、Scanner MCP が remote MCP server として発表され、Claude Desktop、Claude Code、Cursor、Claude Agent SDK から security data lake へ structured access を与える使い方が説明されています。Sequoia の 2026年3月10日付記事でも、AI-driven security operations が投資理由の一つとして語られています。
ただし durable な読み方としては、次の順番を崩さない方が安全です。
この順番にしておくと、MCP や AI workflow の派手さに引っ張られず、Scanner を security data lake の operating layer として評価しやすくなります。
最後に、Scanner を「派手な AI セキュリティ product」として消費しないための問いを整理します。
どの logs を Scanner 側に残し、どれを既存 SIEM に置くのか retention と investigation pattern を分けて考えないと、どちらにも中途半端になります。
index files の owner は誰か storage ratio、S3 lifecycle、region 配置を誰が持つかを曖昧にすると、cost と visibility の議論がずれます。
どの ad-hoc query を rule 化するのか 検索体験が良くても、rule 化の owner がいないと運用資産になりません。
managed と self-hosted のどちらで責務を切るのか security posture より先に、compute ownership と運用負担の分界を決めた方が整理しやすいです。
automation や AI workflow を必須にするのか まず人間向けの investigation loop を回し、その後に API / MCP を足す方が設計ミスが少なくなります。
これらの問いに答えられるなら、Scanner は「新しい SIEM の話題株」ではなく、security data retention と query operation を組み替えるための設計選択として読みやすくなります。
ここからは official source で確認できる内容だけを、時点メモとしてまとめます。下の内容は useful ですが、恒久的な product 定義として固定しない方が安全です。
| 日付 | official source | 確認できること | 読み方 |
|---|---|---|---|
| 2025-12-01 | Scanner MCP announcement | Scanner は remote MCP server を公開し、Claude Desktop、Claude Code、Cursor、Claude Agent SDK との連携を案内した | automation layer の current snapshot として読む |
| 2026-03-10 | Scanner Series A post | Scanner は Sequoia 主導の Series A を発表し、Notion、Ramp、BeyondTrust、Lemonade、Benchling などの事例に触れた | 資金調達と customer traction の snapshot として読む |
| 2026-03-10 | Sequoia partnering post | Sequoia は object storage 上の fast query と AI-driven security operations を投資理由として説明した | 外部 investor が product をどう理解したかの snapshot として読む |
| 2026-04-15確認 | Scanner home / docs overview | home では Collect & Enrich / Search & Investigate / Detections & Response / MCP & APIs を案内し、docs では deployment models、indexing、400+ rules、security posture を説明している | 現在の public product map と docs surface の snapshot として読む |
この snapshot から分かるのは、Scanner が単なる「安い検索 SaaS」ではなく、security data lake、detections、automation をまとめて product 化しようとしていることです。逆に、次の話は固定せず、その都度 official source を見直した方が安全です。
本記事はネクサフローのAI研究シリーズの一部です。
この記事の著者

代表取締役
早稲田大学卒業後、ソフトバンク株式会社にてAI活用やCEO直下案件のプロジェクトマネージャーに従事。その後、不動産スタートアップPit in株式会社の創業、他スタートアップでの業務改善・データ活用を経験後、2023年10月、株式会社ネクサフローを創業し代表取締役CEO就任。
次に読む

ABMが静的なターゲットリストで止まる理由を整理し、インテントデータ、データエンリッチメント、Data Waterfall、Signal-based sellingを組み合わせて営業とマーケの動きを設計するための読み筋をまとめる。

CPC¥10,403——顧問営業はなぜこれほど高単価なのか。LinkedIn不在・信頼文化という日本固有の構造を解明し、データで的を絞り、顧問で接点を作る「ハイブリッドGTM」の設計方法を解説する。

GTM Alpha(GTMアルファ)とは、競合が持たないデータを活用し、競合ができない施策を実行することで得られる営業上の競争優位性である。金融用語のα(超過リターン)から転用されたこの概念を、GTMの3法則・日本市場のデータソース・実装ロードマップとともに解説する。