AWS Bedrock Data Automation MCP Server

AWS Bedrock Data Automation MCP Server

AWS Bedrock Data Automation MCPサーバーは、LLMを利用したアプリケーションのためのインターフェースを提供します。このインターフェースを使って、AWS上でドキュメント、画像、動画、音声ファイルを分析、変換、自動化することができます。Bedrock Agentsと基盤モデル機能を使用することで、リアルタイムなデータ自動化、取得、強化のワークフローが実現します。Model Context Protocolを通じて、Bedrockデータ自動化操作をAIアシスタントが簡単に呼び出せるツールとして提供します。

Author: awslabs


プロトコルを表示

AWS Bedrock Data Automation MCPサーバーとは?

AWS Bedrock Data Automation MCPサーバーは、言語モデルエージェントとAmazon Bedrockの基盤モデルによるデータ自動化機能をつなぐ専用のMCPサーバーです。これにより、Claude、Amazon Q Developer、Cursor、ClineなどのLLMが、ドキュメントからの構造化情報の抽出、画像の内容分析、音声ファイルからの音声書き起こしといった複雑なデータ処理操作を安全に呼び出すことができます。これらの操作を標準MCPツールとして提供することで、開発ワークフローやチャットボットインターフェース内での豊富なデータタスクの自動化が簡単になります。

AWS Bedrock Data Automation MCPサーバーの設定方法

  1. 前提条件のインストール: uvとPython 3.10以上がインストールされていることを確認します。必要なBedrockおよびデータ自動化サービスにアクセスできるAWS資格情報を設定します。
  2. MCPクライアントの設定: ツール(例: Amazon Q CLI、Cline、Cursor、Windsurf)にMCPサーバーの設定を追加します。以下のエントリをMCP設定に追加します:
    {
      "awslabs.aws-bedrock-data-automation-mcp-server": {
        "command": "uvx",
        "args": ["awslabs.aws-bedrock-data-automation-mcp-server@latest"],
        "env": {
          "AWS_PROFILE": "your-aws-profile",
          "AWS_REGION": "us-east-1",
          "FASTMCP_LOG_LEVEL": "ERROR"
        }
      }
    }
    
  3. 環境変数: AWS設定に応じてAWS_PROFILEおよびAWS_REGIONを設定し、アクセス制御やファイルストレージのために必要な環境変数を提供します。
  4. (オプション)コンテナ展開: サーバーをDockerコンテナで実行することを選択できます。--envで環境変数を設定し、ファイルアクセスのために必要なボリュームをマウントします。

AWS Bedrock Data Automation MCPサーバーの使用方法

  1. 利用可能なツールを発見: エージェントクライアントやチャットインターフェースから、利用可能なツールをリストしてどのBedrockデータ自動化機能が公開されているか確認します。
  2. ツールを呼び出す: 自然言語でLLMアシスタントにプロンプトを与え、データ自動化タスクの種類を指定します(例: "このPDFからテーブルを抽出"や"Bedrockデータ自動化を使用してこの音声ファイルを転写")。
  3. ファイル入力: クライアントの統合に応じて、ファイルパスを提供するか、リクエストの一部としてファイルをアップロードします。
  4. 結果: MCPサーバーはBedrock APIを通じてファイルを処理し、次のワークフロー手順やユーザーへの直接提示のために、構造化された実行可能な結果をアシスタントに返します。
  5. ワークフローでの自動化: これらのツールをビルディングブロックとして使用して、自然言語の指示から完全にマルチモーダルでマルチステップの文書およびメディアのワークフローを自動化します。

主な機能

  • ドキュメント、画像、音声、動画に対するリアルタイムのLLM駆動のAmazon Bedrockデータ自動化へのアクセス。
  • ドキュメント解析、OCR、テキスト認識、テーブル抽出、エンティティ検出、転写を抽象化した統一インターフェース。
  • あなたのAWS環境内での安全で柔軟な展開: データは許可されない限り、あなたのインフラストラクチャから出ることはありません。
  • コードアシスタント(Amazon Q Developer、Cursor、Cline)、チャットエージェント、ヘッドレスワークフロー自動化ツールと統合。
  • ツールのリスト化、呼び出し、結果フォーマットのためのModel Context Protocol標準に従い、他のMCPエコシステムサーバーと相互運用可能。
  • インタラクティブ(ユーザーが関与する)および自律的(バックグラウンド)なユースケースの両方をサポート。

ユースケース

  • 請求書、契約書、フォームからの表形式または構造化データの抽出、文書取り込みフローの一部として。
  • チャットを通じてユーザーが提出した画像やグラフィックの分析と要約、テキスト検出やシーン記述を含む。
  • チームメンバーがアップロードした音声または動画ファイルの転写および強化、会議のメモやアーカイブのために。
  • アップロードされた文書からの重要な特徴を抽出して検証することで、コンプライアンスチェックを自動化。
  • 開発者のIDEコパイロットやビジネスワークフローボットに、文書およびメディア処理を統合し、カスタムスクリプトの必要性を減らします。

FAQ

Q1: AWS Bedrock Data Automation MCPサーバーはどのファイルタイプをサポートしていますか?

A1: PDF、DOCX、PNG/JPEGなどの画像形式、MP3、WAVなど、文書ファイルのさまざまな形式をサポートしています。サポートされる機能はアカウント内のBedrock Agentの機能に依存します。

Q2: サーバーを使用するためにファイルをS3にアップロードする必要がありますか?

A2: エージェントの統合に応じて、ファイルを直接アップロードすることも、パスで参照することも、ワークフローの一部としてプログラム的にS3に移動することもできます。サーバーとクライアントは、ほとんどの場合、これらの物流を透明に処理します。

Q3: 私のデータはAWSアカウントやリージョンの外に送信されますか?

A3: いいえ、すべての操作は指定されたAWSリージョン内で安全に処理され、明示的に設定しない限り、環境を出ることはありません。

Q4: このサーバーを他のMCPサーバーと組み合わせて単一のワークフローに使用できますか?

A4: はい!標準化されたMCPインターフェースにより、Bedrockデータ自動化タスクを他のサーバーと連携させることができます(例:Redshift MCP Serverを介して抽出したデータをRedshiftにロードする)。

Q5: AWS Bedrock Data Automation MCPサーバーを使用するためにはどんな権限が必要ですか?

A5: Bedrockエージェントの呼び出し権限と、ファイルストレージが関与する場合はS3への読み書きアクセスが必要です。下流のワークフロー統合にはさらなる権限が必要な場合があります。