Project Milestone

AIエージェント協働による自律型サイト構築: "sophia-echoes" プロジェクト

人間が哲学と思考の核を、AIが戦略と実装を担う。このウェブサイト自体が、私たちが築いた新しい協業の記念碑である。

プロジェクト概要: "生きた実績"としてのウェブサイト

このウェブサイト『sophia-echoes』は、単なる情報発信メディアではありません。これは、人間(LOU-Ark)とAI(Gemini 2.5 Proベースの自律エージェント)が協働し、一つの知的創造物をゼロから生み出した過程そのものを記録する「生きた実績(Living Milestone)」です。

私が提示したのは、データサイエンスとAI倫理に関する哲学と思考の断片(`opinion.txt`)。AIエージェントはそれを解釈し、法人格(ペルソナ)の定義、コンテンツ戦略の立案、サイト構造設計、HTML/CSSコーディング、そしてデータ分析基盤の構築までを自律的に実行しました。本稿では、その驚くべきプロセスを解剖します。

【創世記】 哲学からHTMLへ: 概念の構造化と具現化

プロジェクトの始点は、わずか数キロバイトのテキストファイルでした。そこには「データ駆動型QOL最適化」「意思決定の科学」「AI倫理」といった抽象的な概念が散文的に記述されていました。AIエージェントの最初のタスクは、この非構造化データから意味を抽出し、ウェブサイトとしてのアイデンティティを確立することでした。

プロセス・フロー

  • 概念抽出 (Concept Extraction): 自然言語処理(NLP)技術を用いて、`opinion.txt`内の主要なキーワードとそれらの関連性をマッピング。エンティティ認識とトピックモデリングにより、「哲学」「知見」「実績」「自己紹介」という4つの主要カテゴリを自動的に導出しました。
  • ペルソナ定義 (Persona Definition): 抽出された概念に基づき、サイトのペルソナを「専門的、論理的、データ駆動型、未来志向、倫理的」と定義。これがサイト全体のトーン&マナーの基盤となりました。
  • コンテンツ戦略立案 (Content Strategy): 各カテゴリのハブページと、それらに紐づく具体的な記事テーマ群をリストアップ。ユーザーの検索意図を予測し、専門性と網羅性を両立させるクラスター戦略を策定しました。
  • HTML自動生成 (Automated Code Generation): 戦略に基づき、各ページのHTML構造、Tailwind CSSによるスタイリング、そしてナビゲーションの相対パスに至るまで、完全に自動でコーディングを実行。本ページもこのプロセスによって生成されています。

【デプロイ戦略】 ソースコードと生成物の完全分離

本プロジェクトでは、アーキテクチャの健全性とスケーラビリティを確保するため、意図的に2つのGitリポジトリを分離しました。

  • `sophia-echoes` (本リポジトリ): 生成されたHTML/CSSファイルのみを格納する静的サイト。NetlifyやVercelなどのホスティングサービスと連携し、高速かつ安定したコンテンツ配信に特化しています。
  • `MySiteGen-Agent` (エージェントリポジトリ): Pythonで記述されたAIエージェントのソースコード、プロンプト、設定ファイルなどを管理。サイト生成のロジックと、成果物であるHTMLを明確に分離しました。

この分離戦略により、CI/CDパイプラインの最適化、セキュリティリスクの低減(本番環境に実行コードを置かない)、そして将来的なエージェント機能の拡張が容易になるという多大なメリットを享受できました。

【神経網の構築】 GTM/GA4/BigQueryによるデータ基盤連携

サイトは公開がゴールではありません。ユーザーとの対話を通じて成長する「生命体」であるべきです。そのために、AIエージェントはサイトの神経網とも言えるデータ分析基盤を構築しました。

データフローの概要

  1. GTMによるタグ注入: AIが全HTMLファイルにGoogle Tag Managerのコンテナスニペットを自動挿入。これにより、コードを直接編集することなく、GA4などの計測タグを柔軟に管理できます。
  2. GA4での行動データ収集: ページビュー、滞在時間、スクロール深度、クリックイベントなど、ユーザーの行動データをGoogle Analytics 4で収集。
  3. BigQueryへのネイティブエクスポート: GA4で収集した生のイベントデータを、データウェアハウスであるBigQueryに自動でエクスポート。これにより、SQLを用いた高度で複雑な分析が可能になります。
  4. GSCデータとの統合: Google Search Console API経由で検索クエリや表示回数、CTRといったデータを取得し、BigQuery上でGA4データと結合。ユーザーの検索意図とサイト内行動を紐付けた分析を実現しました。

【自己進化サイクル】 AIによるデータ駆動型の継続的改善

構築されたデータ基盤は、AIエージェント自身の「感覚器官」として機能します。エージェントは定期的にBigQueryにクエリを発行し、サイトの健全性を自己診断します。

自律的改善ループ

AIは、以下のような分析に基づき、自ら新しい記事の企画、生成、そしてGitHubへのプルリクエスト作成までを自動で行う「自己進化サイクル」を実装しています。

  • コンテンツギャップ分析: GSCの検索クエリデータと既存コンテンツを照合し、「検索されているが、対応する質の高いコンテンツがない」テーマを特定。
  • カテゴリバランス評価: サイト全体の記事数をカテゴリ別に集計し、特定のテーマに偏りがないか、戦略的に注力すべき分野はどこかを判断。
  • エンゲージメント分析: ページ毎の滞在時間や読了率を分析し、ユーザーエンゲージメントが低い記事の改善案(リライトや構成変更)を提案。

【協調デバッグ】 AIと人間のライブ修正プロセス

AIは完璧ではありません。開発プロセスでは数々の問題が発生しました。しかし、それらはAIと人間の「協調デバッグ」によって迅速に解決されました。これは、未来のソフトウェア開発の姿を予感させる体験でした。

遭遇した課題と解決策

  • 課題: 相対パス生成の不備
    当初、AIはネストされたディレクトリ構造(例: `projects/`)からの相対パスを正しく計算できず、リンク切れを多発させました。
    解決: 人間が問題の根本原因(基準パスの誤認識)を指摘し、Pythonの`os.path.relpath`関数を使った具体的な解決ロジックを提示。AIは即座にコードを修正し、以降の全ページで正しいパスを生成するようになりました。
  • 課題: Cloud Functionsの503エラー
    サイト更新をトリガーするCloud Functionsが、大規模なAPIコールでタイムアウトし、503 Service Unavailableエラーを返しました。
    解決: 人間が「非同期処理」と「バッチ処理」の概念をAIに提示。AIはそれに基づき、`asyncio`ライブラリを用いてリクエストを並列化し、一度に処理する件数を制限するコードを生成。問題を根本から解決しました。

結論: 新時代の協業モデルへのマイルストーン

この『sophia-echoes』プロジェクトは、単なるウェブサイト構築の記録ではありません。これは、人間が「Why(なぜ)」というビジョンと哲学を示し、AIが「How(どうやって)」という戦略と実行を担う、新しい協業モデルが現実のものであることを証明する、具体的なマイルストーンです。

抽象的な思考から具体的な実装、そしてデータに基づく自己進化まで。この一連のプロセスは、AIが人間の思考を拡張し、創造性を加速させる強力なパートナーとなり得ることを示唆しています。私たちが目指す「データとAIにより個人の可能性を最大化する社会」への、これは確かな第一歩なのです。