攻めと守りを両立する次世代データガバナンス:AI時代の統合データ基盤を実現するDatabricksとSnowflake

  • 特徴量
  • 機械学習
  • データ分析
  • DX

はじめに:データ活用の理想と現実、そして進化するガバナンスの系譜

「データ駆動型経営」や「デジタルトランスフォーメーション(DX)の推進」が企業の至上命題となる中、多くの企業は依然としてデータからビジネス価値を創出するプロセスにおいて、大きな壁に直面しています。データサイエンティストが高度なAIモデルを構築し、経営層がデータドリブンな意思決定を目指す一方で、基盤となる「データ」そのものの管理と統制が追いついていないことが、プロジェクトの重大なボトルネックとなっています。

「経営会議において、営業部門とマーケティング部門から提出されたKPIの数値が合わず、議論が紛糾する」

「全社的な顧客データ統合プロジェクトが、部署ごとのデータサイロ化によって頓挫しかけている」

「IT部門はセキュリティや個人情報保護法を遵守するためデータ提供に慎重にならざるを得ず、結果としてビジネスのスピードを阻害してしまっている」

皆様の組織でも、このようなジレンマに心当たりはないでしょうか。これらの問題の根底にあるのは、個別のBIツールやETLツールの機能不足ではなく、組織として統一された「データガバナンス」——すなわちデータを企業の重要資産として管理し、安全に統制するための包括的なルールと技術的基盤——が不在であるという事実です。

真のデータガバナンスを設計するためには、過去数十年にわたるエンタープライズデータ管理のアーキテクチャの進化を俯瞰し、現代の要件を正確に捉える必要があります。データ管理のアプローチは、テクノロジーの進化とビジネス要件の変化に伴い、大きく3つの世代を経て発展してきました。

世代主なアーキテクチャ主導部門核心概念メリット課題
第1世代 (〜2000年代前半)MDM, エンタープライズDWHIT部門正確性, 中央集権的統制高品質なデータ, 一貫性の担保デリバリの大幅な遅延, 拡張性の欠如, ビジネスの変化への適応難
第2世代 (2010年代〜)クラウドデータレイク, モダンBIビジネス部門, 分析部門アジリティ, セルフサービス, データの民主化高速な分析, 現場主導の柔軟な対応データのサイロ化, 野良データマートの乱立, セキュリティリスク増大, 信頼性の低下
第3世代 (2020年代〜)統合データプラットフォーム (レイクハウス, データクラウド)IT部門とビジネス部門の協調ガードレール, コンテキスト, 統合ガバナンス信頼とスピードの完全な両立, AI活用への適応実装の技術的複雑性, 組織文化の変革の必要性

第1世代の中央集権型アプローチでは、IT部門が厳格なゲートキーパーとして機能し、堅牢なマスターデータ(MDM)を維持することに成功しましたが、ビジネスの意思決定速度に対するデータ供給の遅れが致命的でした。その反動として台頭した第2世代のセルフサービス型アプローチは、現場のアジリティを劇的に向上させたものの、自由の代償として「ガバナンスの欠如」を生み出しました。部門間でのKPI定義の不一致や情報漏洩リスクの増大が顕在化し、結果としてデータに対する組織的な信頼が損なわれる事態を招いています。

現在、エンタープライズアーキテクチャが目指すべき「第3世代」のモデルは、第1世代の「統制」と第2世代の「自由」を技術的に統合する試みです。この統合データガバナンスの核心は「ガードレール」と「コンテキスト」にあります。IT部門はユーザーの行く手を阻む「関所」ではなく、ユーザーが迷わず安全にデータを活用できる「舗装された高速道路(ガードレール付きの基盤)」を提供する役割へと進化しています。

本稿では、この第3世代のガバナンスをデータプラットフォームの内部に組み込み、パフォーマンスを犠牲にすることなくリアルタイムの統制を可能にする技術的イネイブラーとして、Databricksの「Unity Catalog」とSnowflakeの「Horizon Catalog」のアーキテクチャを紐解きます。さらに、これらの強固なガバナンス基盤の上で、dotData社の製品群がいかにして「セキュリティを担保したまま、業務部門主導の高度なAI分析」を実現するのか、その実践アプローチを紹介します。

データガバナンスの二面性:守りのブレーキと攻めのアクセル

最新の技術的詳細に踏み込む前に、現代のデータガバナンスが果たすべき本質的な役割を再定義します。データガバナンスは、相反するように見える二つの側面、「守りのブレーキ」と「攻めのアクセル」を同時に満たす、ビジネスのオペレーティングシステムとして機能しなければなりません。

守りのガバナンス(ブレーキ)とは、データ漏洩、不正利用、法令違反といった重大な事業リスクから企業を防衛するためのメカニズムです。一度の情報漏洩が経営に致命的なダメージを与えかねない現代において、個人情報保護法やGDPRといった厳格化する法規制への対応は、事業継続の必須要件です。

一方で攻めのガバナンス(アクセル)とは、データの信頼性、正確性、鮮度をシステム的に担保し、誰もが安心してデータを利用できる環境を整備することです。信頼できるデータに迅速にアクセスできる状態こそが、新たなビジネスインサイトの発見を促し、データドリブンな意思決定を全社的に加速させる原動力となります。

かつてデータが複数のシステムに散在していた時代、ガバナンスもまたツールごとに分断され、サイロ化せざるを得ませんでした。しかし、Databricksが提唱する「レイクハウス」やSnowflakeが提供する「AI Data Cloud」によって、すべてのデータとAIワークロードが単一のプラットフォームに統合される時代が到来しました。これにより、メタデータとデータの実体が同一のセキュリティ境界内で管理され、アクセスポリシーの適用にタイムラグが生じない、真の「統合ガバナンス」が技術的に可能となったのです。

SnowflakeやDatabricksで実現する、次世代ガバナンスの「6つの技術的要件」

ここからは、AI時代のデータ活用に不可欠な要件を「6つの柱」として整理し、Databricks Unity CatalogとSnowflake Horizon Catalogがそれぞれの課題をどのように技術的に解決しているのか、具体的なコードスニペットや操作例を交えて解説します。自社に最適なアーキテクチャを設計する上で、両者のアプローチの違いを理解することは極めて重要です。

柱1:Databricks IQ/Snowflake Cortex AIによるアクティブメタデータ管理と自動カタログ化

データ活用の第一歩は、「自社にどのようなデータが存在し、どこにあるのか」を迅速かつ正確に把握することです。手作業でメンテナンスされる従来の静的なデータカタログは、すぐに陳腐化してしまうという課題を抱えていました。両プラットフォームは、AIを活用した「アクティブメタデータ」によってこの課題を解決します。

Databricks Unity CatalogとDatabricks IQによる自動文書化

Databricksでは、構造化・非構造化データに加え、機械学習モデルやダッシュボードといったAI資産までを一元管理可能です。 特筆すべきは、AIエンジン「Databricks IQ」が提供するアクティブメタデータ機能です。データの中身や実際のクエリ状況をAIが解析し、テーブルやカラムの説明文を自動生成・提案します。これにより、データエンジニアを悩ませていたドキュメント作成の工数が大幅に削減され、メタデータが常に最新の状態に保たれます。

SnowflakeのUniversal Searchとデータ分類の自動化

Snowflake Horizon Catalogは、大規模言語モデル(LLM)を内蔵したエンタープライズ検索エンジン「Universal Search」を提供しています。データベース内のオブジェクトだけでなく、Marketplaceのデータ製品に至るまで横断的な検索が可能です。 ユーザーがSnowsight(Web UI)の検索バーに「クローズしそうな営業案件」や「郵便番号」といった自然言語を入力すると、AIがオブジェクト名、コメント、過去のクエリ履歴から文脈を解析し、最適なテーブルを提示します。特筆すべきは、現在アクティブなロールがアクセス権限を持つオブジェクトのみが検索結果に表示される点です。権限のない機密データは完全に隠蔽されるため、データディスカバリと高度なセキュリティが両立します。

さらに、ガバナンスの基礎となる個人情報(PII)の所在を自動把握するため、データ分類の自動化機能を提供しています。

SQL
-- 1. スキーマ全体のテーブルに対する分類ジョブをスケジュールし、自動タグ付けを有効化
CALL SYSTEM$CLASSIFY_SCHEMA('hr.tables', {'auto_tag': true});

-- 2. アカウント全体の最新の分類結果を監視システムで確認
SELECT * FROM SNOWFLAKE.ACCOUNT_USAGE.DATA_CLASSIFICATION_LATEST;

これにより、データスチュワードの運用負荷が劇的に軽減され、継続的なデータの棚卸しが実現します。

柱2:動的セキュリティ統制の実装:ABACをコードで定義・実現する例

「誰に、どのデータを、どこまで見せるか」。従来のロールベースアクセス制御(RBAC)では、組織やデータの増加に伴いロール数が爆発し、管理が破綻するケースが後を絶ちません。この課題に対し、ユーザー属性とデータ属性を動的に評価する属性ベースアクセス制御(ABAC)と、それをコードとして管理する「ポリシー as Code」のアプローチが標準となりつつあります。

Databricksにおける行フィルターと動的カラムマスキング

Unity Catalogでは、SQL UDF(ユーザー定義関数)を用いて行フィルターやカラムマスクを定義し、ABACを実現します。 以下は、人事部門(HumanResourceDept)のメンバーにのみ社会保障番号(SSN)の平文を表示し、他部門にはマスクされた文字列を返す実装例です。

SQL
-- マスキング用のSQL UDFを作成
CREATE FUNCTION ssn_mask(ssn STRING)
  RETURN CASE
    WHEN is_account_group_member('HumanResourceDept') THEN ssn
    ELSE '***-**-****'
  END;

-- テーブル作成時にカラムマスクを適用
CREATE TABLE users (
  name STRING,
  ssn STRING MASK ssn_mask
);

これらの関数はクエリ実行時に動的に評価されるため、データを物理的に分割して複数のビューを作成する手間が省け、運用の複雑性が劇的に低下します。

Snowflakeにおけるタグベースのマスキングと権限マッピング

Snowflakeは、カラムごとではなく、付与された「タグ」に対してマスキングポリシーを紐付けるというスケーラブルなアプローチを採用しています。大規模環境であっても、数個のポリシーで全社のセキュリティ要件を網羅できます。

また行アクセスポリシーにおいては、ロジックをハードコーディングせず、権限マッピングテーブルを参照させる設計が推奨されています。組織変更時にも、ポリシー自体には触れずマスタデータの更新のみで即座に対応可能です。

SQL
-- 1. セキュリティスキーマ内に権限マッピングテーブルを作成しデータを挿入
CREATE TABLE security.sales_entitlements (role_entitled string, region string);
INSERT INTO security.sales_entitlements VALUES ('SALES_EU', 'eu'), ('SALES_US', 'us');

-- 2. マッピングテーブルを参照する動的な行アクセスポリシーを作成
CREATE OR REPLACE ROW ACCESS POLICY security.regional_access AS (region_val varchar) RETURNS BOOLEAN ->
  CASE
    WHEN IS_ROLE_IN_SESSION('GLOBAL_MANAGER') THEN TRUE
    WHEN EXISTS (
      SELECT 1 FROM security.sales_entitlements
      WHERE IS_ROLE_IN_SESSION(role_entitled) AND region = region_val
    ) THEN TRUE
    ELSE FALSE
  END;

-- 3. 保護対象テーブルにポリシーをバインド
ALTER TABLE sales.raw_data ADD ROW ACCESS POLICY security.regional_access ON (region);

柱3:リネージのリアルタイム管理・可視化による信頼性担保と品質監査の自動化

「このダッシュボードの売上数値は本当に正しいのか」「このテーブル定義を変更すると、どのAIモデルに影響が出るのか」 — データの出所と影響範囲を追跡するデータリネージと、品質状態を監視するオブザーバビリティは、経営層や事業部門からの「データに対する信頼」を勝ち取るための生命線です。

Databricksにおける自動化されたデータリネージ

Unity Catalogは、Databricks上で実行されるすべての処理(SQL、Pythonなど言語を問わず)を監視し、データの流れをテーブルレベルのみならず、カラム(列)レベルで自動的かつリアルタイムに追跡します。エージェントのインストールやコード改修は一切不要です。 Catalog ExplorerのUIから「Lineage」タブを開き「See Lineage Graph」をクリックするだけで、データの依存関係が視覚的なグラフとして全画面表示されます。特定のカラムをクリックすれば、そのデータがどこから来て、どのダッシュボードへ流れていくのかが瞬時にハイライトされ、安全な変更管理と迅速な障害原因の特定が可能となります。

SnowflakeのData Quality Monitoring (DMF)

Snowflakeは、Data Metric Functions (DMF) を用いてデータ品質を継続的かつ自動的に監査する仕組みを提供しています。ユーザー独自のビジネス要件に基づいた品質チェック(例:特定フォーマットのメールアドレスの割合)をカスタムDMFとして定義し、スケジュール実行させることができます。

SQL
-- 不正なメールアドレス形式をカウントするカスタムDMFをバインドし、日次監査をスケジュール
ALTER TABLE hr.tables.customers ADD DATA METRIC FUNCTION governance.dmfs.invalid_email_count ON (email);
ALTER TABLE hr.tables.customers SET DATA_METRIC_SCHEDULE = 'USING CRON 0 8 * * * UTC';

実行結果はSnowsightのUI上で時系列の折れ線グラフとして視覚化され、データマネジメント担当者はデータの異常値や劣化を一目で把握できます。

また、SnowflakeにおいてもDatabricksと同様に、自動でデータリネージを可視化する機能が備わっています。

柱4:ビジネス指標の計算ロジック一元化:Databricks Unity Catalog Metrics/Snowflake Semantic Views

「部門間でKPI(重要業績評価指標)の定義が異なり、数値が合わない」 — これは多くの企業で発生する根深い課題です。生データとBIツールやAIの間に立って「ビジネスの意味(セマンティクス)」を一元管理するのがセマンティックレイヤーです。

Databricks Unity Catalog Metrics

Databricksでは、「Unity Catalog Metrics」を利用してビジネス指標の計算ロジックをUnity Catalog内に一元的に保存・管理できます。これにより、BIツール、ノートブック、AIエージェントのどこからアクセスしても、組織全体で同じ定義に基づいた一貫性のある数値を参照することが可能になります。 複雑な集計ロジックをSQLに都度記述するのではなく、MEASURE() 関数を利用してシンプルかつ安全に指標を呼び出します。

SQL
SELECT
  `Order Month`,
  `Order Status`,
  MEASURE(`Order Count`),
  MEASURE(`Total Revenue`)
FROM orders_metric_view
GROUP BY ALL;

Snowflake Semantic ViewsとCortex Analyst

Snowflakeも同様に、YAML形式でビジネスロジックを定義する「Semantic Views」を提供しています。特筆すべきは、このモデル内に「検証済みクエリ」を組み込める点です。この定義は、自然言語を正確なSQLに変換する生成AI機能「Cortex Analyst」に対する強力なプロンプトとして機能します。RBACが完全に適用された状態で、生成AIがハルシネーション(もっともらしい嘘)を起こすことなく、正確なビジネスデータに基づいた回答を提示します。

柱5:データ複製を排除するZero-Copyアーキテクチャ:Delta SharingとSecure Data Sharing

外部ツールやパートナー企業と連携するためにデータをCSV等でエクスポートすると、その瞬間にデータの鮮度が失われ、ガバナンスの統制外に置かれるという致命的なセキュリティリスクが発生します。これを解決するのが、データを物理的に移動させることなくポインタの共有のみでライブデータへのアクセスを提供する「Zero-Copy(ゼロコピー)」アーキテクチャです。

DatabricksのDelta SharingとSnowflakeのSecure Data Sharing

Databricksはオープンソースのプロトコルである「Delta Sharing」を、Snowflakeは「Secure Data Sharing」をそれぞれ提供しています。いずれも、提供側(Provider)が直感的なUIまたはシンプルなSQLでShareを作成し、受信側(Consumer)に権限を付与するだけで、データの複製を一切行うことなく、即座に最新のデータへのセキュアなアクセスを可能にします。

一方で、Zero-Copyアーキテクチャは本質的にデータ利用時にネットワーク通信が発生するため、データ転送にかかる時間がデータアプリケーションの応答性能に影響を与えることには注意が必要です。この影響を最小化するために、データ処理(SQLクエリ実行など)をデータソース側に実行させて転送データ量を小さくするクエリプッシュダウンの仕組みが備えられていることが多いです。

柱6:ベンダーロックインを回避するオープン規格(Iceberg/Delta/Unity Catalog/Polaris)の採用

特定のベンダーの独自フォーマットにデータがロックインされると、将来的なアーキテクチャ変更時に多大な移行コストが発生します。

Databricksは「Delta Lake」や「Delta Sharing」に加え、ガバナンスレイヤーである「Unity Catalog」そのもののオープンソース化を発表しました。一方のSnowflakeも、オープンフォーマットである「Apache Iceberg」をネイティブサポートし、オープンカタログ「Polaris」へのメタデータ自動同期機能を提供しています。これにより、企業は特定のベンダーに縛られることなく、将来にわたって柔軟で拡張性の高いデータエコシステムを維持できます。

境界を超える統制:外部アプリケーションとのセキュアな連携設計

SaaSやBIツール、高度なAIプラットフォームといった「外部アプリケーション」と自社のデータ基盤を連携させる際、従来の「パスワードを共有するシステム共通アカウント」は、担当者の異動に伴う管理漏れやブルートフォース攻撃に対する脆弱性という大きなリスクを抱えていました。

Databricksにおける「サービスプリンシパル(Service Principal)」や、Snowflakeにおける「Service User」は、自動化ツールやアプリケーションのために設計された「人間ではない」特別なアイデンティティです。 これらのアカウントはパスワード認証を排除し、OAuth 2.0のM2MトークンやRSAキーペア認証といったセキュアな方式を強制します。最も重要な点は、これらの外部連携アカウントもまた、Unity CatalogやHorizon Catalogの強固なガバナンス(ABAC、行フィルター、監査ログ)の完全な統制下に置かれるということです。

dotDataの実践アプローチ:「Data Gravity」がもたらすAIとガバナンスの統合

これまでに詳述した最先端のクラウドデータプラットフォームのガバナンス基盤を、いかにして高度なAIによるビジネス価値(ROI)の創出へと結びつけるか。IT部門の運用負荷を下げつつ、業務部門の自走化を促すための最も先進的な解答の一つが、エンタープライズAIの自動化リーダーであるdotData社の製品アプローチです。

従来のAI分析では、モデル学習や特徴量設計のためにデータウェアハウスから外部環境へ大量のデータを「抽出・エクスポート」する必要がありました。しかし前述の通り、データを外に出した瞬間にセキュリティリスクは増大し、ガバナンスは破綻します。 dotData社は、この構造的課題を根本から解決するため、「Data Gravity(データの引力:データを動かすのではなく、データがある場所へ計算処理・AIを持ち込む)」というアーキテクチャ思想を採用しました。そして、主力製品である「dotData Insight」と「dotData Feature Factory」の双方において、DatabricksおよびSnowflakeの両プラットフォームとのネイティブ統合を果たしています。各プラットフォームとのネイティブ統合の詳細については、dotData on DatabricksおよびdotData on Snowflakeの各ページで詳しくご紹介しています。

業務部門が主役となる「dotData Insight」のデータ分析基盤統合

dotData Insight」は、データサイエンティスト不在の業務部門であっても、直感的なUIを通じて高度なビジネスインサイトの発見や施策立案を自走化できるプラットフォームです。直近のアップデートにより、DatabricksおよびSnowflakeからデータをコピーせずに解析・特徴の抽出を実行できるようになり、それぞれのセキュリティを完全に継承するようになりました。

Databricksとのネイティブ統合

データはDelta Lake上に保持されたまま、Unity Catalogの高度なデータアクセス制御(ABAC等)を完全に享受できます。 dotDataのAIによる複雑な特徴量探索は外部の計算リソースに依存せず、Databricksの「Lakeflow Jobs」を通じて直接実行されます。これにより、各部門のニーズに合わせたセキュアな分析環境が即座に立ち上がります。

Snowflakeとのネイティブ統合

dotDataの心臓部である独自の特徴量自動設計エンジンが、Snowflake内の「Snowpark Container Services (SPCS)」上で直接実行されます。dotData InsightのWebサービスやコンテナはSnowflake環境の厳格なセキュリティ管理下で動作するため、Horizon Catalogで定義された行アクセスポリシーやマスキングルールが、AIエンジンに対して完全に強制・継承されます。

本番品質のAI実装を加速する「dotData Feature Factory」

データサイエンティストや機械学習エンジニア向けに、特徴量設計のプロセスを自動化・アセット化する「dotData Feature Factory」もまた、両プラットフォームに対応する柔軟なデプロイメントオプションを備えています。

Databricks環境でのLakeflow Jobsとカタログの活用

Databricks環境において、膨大な計算リソースを要求される「特徴量設計」のプロセスは、DatabricksのネイティブなワークフローエンジンであるLakeflow Jobsを通じて分散処理されます。ユーザー企業はUnity Catalogによる堅牢なアクセス制御を妥協することなく、dotDataの「世界最先端の特徴量自動設計」を利用可能になります。

Snowflake環境でのSPCS実行オプション

同様に、dotData Feature FactoryにはSnowflakeのSnowpark Container Services (SPCS) を活用して実行するオプションも搭載されています。これにより、Snowflake内に蓄積されたデータを外に出すことなく、大規模な特徴量空間の探索と生成をSnowflakeのコンピュートプール内で安全に完結させることができます。

特筆すべきは、これらの統合環境で発見された価値ある特徴量が、本番品質・スケーラビリティをもった「特徴量パイプライン」として自動生成される点です。従来、属人化して捨てられていたデータ加工プロセスが再利用可能な企業の「アセット」としてカタログ上に蓄積され、AI開発プロセス全体の効率と品質が飛躍的に向上し、PoC(概念実証)から本番運用への移行という「死の谷」をスムーズに越えることができます。

おわりに

本稿で詳述した通り、DatabricksのUnity CatalogやSnowflakeのHorizon Catalogに代表される次世代のデータガバナンスは、もはや単なる「コンプライアンスのための制限ルール」ではありません。それは、AIの持つ強大な力を安全かつ爆発的に引き出し、ビジネスの意思決定を全社規模で加速させるための、真の「エンタープライズのオペレーティングシステム」へと昇華しています。

ポリシーをコードとして管理し、AIを活用してアクティブにメタデータを生成し、ゼロコピーで安全にデータを連携する。この堅牢な基盤の上に、dotDataが提供する特徴量自動設計プラットフォームをネイティブに統合することで、企業は「IT部門が求めるセキュリティ・統制」と「業務部門が求めるアジリティ・インサイト」をかつてない高い次元で両立させることができます。

経営層、IT部門、そしてデータマネジメントを牽引する皆様にとって、これからの企業競争の優位性は「いかに迅速に、かつ安全に、現場の業務部門が自律してデータからビジネス価値を引き出せるか」に懸かっています。データのサイロ化や分析プロセスの属人化に終止符を打ち、攻めと守りを両立する統合データガバナンスの真の価値を体験する時が来ています。

dotDataと一緒に、新たなビジネスチャンスを見つけませんか?

dotDataの製品群は、お客様の組織のAI成熟段階に関わらず、データの加工から特徴量設計、機械学習モデルの構築に至るプロセス全体を自動化し、エンタープライズにおけるAIとデータ活用の民主化を強力に支援いたします。

DatabricksやSnowflakeの強固な統合データガバナンス基盤の上でシームレスに動作する、dotData Feature Factory による本番品質の特徴量パイプライン自動生成や、dotData Insightによる事業部門主導のビジネスインサイト自動探索・AIドリルダウン分析の真価を、ぜひご自身の環境でお確かめください。

様々なビジネス課題の解決やユースケースについてのご相談、最新の製品デモのリクエストにつきましては、以下の連絡先またはお問い合わせフォームよりお気軽にご連絡ください。経営層、事業部門、分析部門、IT部門のすべての皆様に、自動化による確かなビジネス価値をご提供いたします。

皆様のデータドリブンな組織変革とビジネスの飛躍を、dotDataが全力で伴走・サポートいたします。

Masato Asahara, Ph.D.
Masato Asahara, Ph.D.

慶應義塾大学博士(工学)。NEC研究所にて分散システムおよびApache Sparkを用いた大規模AI自動化基盤の研究開発に従事した後、dotDataを共同創業。同社では、AI自動化プラットフォームのソフトウェアアーキテクチャ全般(分散AIエンジン、リソース管理、リアクティブWebアプリ)の設計・開発を統括。現在はプロダクトマネージャーとして、データ分析の民主化に向けた製品の戦略立案と開発を主導している。

dotDataのAIプラットフォーム

dotData Insight 業務部門が自ら洞察を導き出す

dotData Insightは、事業部門が主役のビジネスアナリティクスを実現する革新的なデータ分析プラットフォームです。業務データに隠れたパターン(特徴量)を、BIツールのような直感的で使いやすいインターフェースを通じて提供します。dotData独自のAIが解析するデータの特徴を、生成AIの「世界知識」で補完し、実用的なビジネス仮説を生み出します。この融合により、業務部門は、データの洞察を直感的に理解し、新しいビジネス仮説を立て、戦略立案や施策実行をより効果的に行うことができます。

dotData Feature Factory 特徴量をアセット化し全てのAI/BIを強化

dotData Feature Factoryは、データサイエンティストやIT部門が、企業がキュレーションされたデータ(すなわち特徴量)を開発するために、データ加工に関するノウハウを再利用可能なアセットとして蓄積する仕組みを提供します。データ中心に構築される特徴量空間から、アルゴリズムによってデータに隠れたパターン(特徴量)を発見し、特徴量発見のスピードと効率、再利用性と再現性、専門家間の連携、品質と透明性を向上させます。dotData Feature Factoryは、機械学習モデルによる予測、ビジネスインテリジェンス(BI)によるデータ可視化、或いはマーケティングオートメーションのような、全てのデータアプリケーションを強化します。