Skip to content
業務OS Lab
Go back

生成AIの一番の価値は「仕事するだけでデータが溜まる」ことだった

生成AIが変えたのは「アウトプット」ではなく「データ蓄積の構造」

生成AIで文章が書ける。画像が作れる。コードが書ける。

それは確かにすごい。でも、数十社のコンサルをやってきて、自分が一番衝撃を受けたのはそこじゃなかった。

「仕事をするだけで、データが勝手に溜まる」。

これが生成AIの一番の価値だと思っている。

なぜそう思うのか。まず歴史を振り返らせてほしい。


データ計測の歴史:TV → Web → DX → 生成AI

TV CM時代:「たぶんこれくらい見られた」

テレビCMの効果測定は、長い間こうだった。

ビデオリサーチ社が関東約900世帯にメーターを設置して、テレビがどのチャンネルに合っているかを計測する。関東1,800万世帯を、900世帯で代表する。これが「視聴率」だ。

しかもこれは「世帯視聴率」であって、「誰が見ているか」はわからない。テレビがついているだけで、その部屋に人がいるかもわからない。CMの間にトイレに行っていても、視聴率にはカウントされる。

広告主は「GRP(延べ視聴率)」という指標でCM枠を買う。視聴率10%の枠で15秒CM = 10GRP。3,000GRPのキャンペーンを買っても、同じ世帯が30回見ているのか、広く浅く届いているのか、わからない。

効果測定は? 事前事後調査(アンケート)。キャンペーンの前と後で「このブランドを知っていますか?」と聞く。数百万円かかって、結果は数週間後。しかも他の施策の影響と切り分けられない。

「たぶんこれくらい見られた。たぶん認知度が上がった。たぶん。」

これが2000年代まで広告の世界の当たり前だった。

Webマーケ時代:全行動がデータになった

インターネット広告が変えたのは、計測の「精度」ではなく「構造」だ。

サンプルではなく全数。推測ではなく実測。

誰がどの広告を見て、クリックして、商品ページに行って、カートに入れて、購入したか。全部データとして残る。アクセスログ、CTR、CVR、CPA。行動の全てがトラッキングされる。

2019年、ネット広告費が2兆1,048億円に達し、テレビ広告費1兆8,612億円を初めて逆転した(電通「日本の広告費」)。

これは「ネットの方が安いから」ではない。「ネットは効果が数字で見えるから」 だ。テレビCMの担当者が「GRP3,000でブランドリフトが推定○%」と報告する横で、デジタルの担当者は「CPA 2,300円で1,200件獲得」と報告する。経営者がどちらに予算を付けるかは明白だった。

DX時代:「全部クラウドに入れよう」→ 誰も入力しない

Webで行動データの価値が証明された。次は社内業務もデータ化しよう。これがDXの流れだ。

Salesforceを導入する。「商談の記録を全部入れてください」と言う。現場はどうなるか。

誰もちゃんと入れない。

営業マンの手元には個人のExcelがある。これは「入力が面倒だから」ではない。もっと根深い理由がある。

営業マンにとって、個人のExcelはへそくりだ。

見込みのある案件をSalesforceに入れるとどうなるか。上司に見える。チームに見える。期待される。そして、もし落としたら怒られる。

逆に、見込みの薄い案件を個人のExcelに隠しておく。誰にも期待されない。もし取れたら「すごいじゃん」と褒められる。

「見込みあり→落としたら怒られる」「見込みなし→取れたら褒められる」

この感情の力学がある限り、全員に共有されるSalesforceに正直な案件情報を入れるインセンティブがない。だから入れない。入力コストの問題ではなく、組織のインセンティブ構造の問題だ。

CRM導入の失敗率は50〜63%と言われている。失敗の原因はソフトウェアの機能ではない。「正直に入力すると損をする」構造を放置したまま、ツールだけ導入したことだ。

経理も構造は同じだ。予算管理システムはある。フォーキャストも出る。でも現場から上がってくる数字は「行きます」という希望的観測だ。

なぜか。週次定例、あるいは隔週の役員定例を想像してほしい。役員はその数字がいくつだったか、来週には覚えていない。その瞬間、良いのか悪いのか——その一点しか見ていない。だから現場は「悪く見えない数字」を出す。営業と同じインセンティブが働く。

結果どうなるか。経理部長は、現場から上がってくる見込み数字で会社のキャッシュフローを管理できない。現金が不安定ならなおさらだ。だから手元に独自のロジックで計算したExcelを持っている。 現場の希望的観測を自分の経験値で補正して、実態に近いフォーキャストを出す。しかもこれが高確率で当たる。

公式のシステムと、個人の手元資料が二重に存在する。どの会社でも同じだ。

「全部クラウドに入れて、リアルタイムでデータを一元管理する」——SaaSベンダーは10年以上これを言い続けてきた。理想郷だった。なぜ定着しないか。

仕事とデータ入力が別の行為だった。 そして、正直に入力するインセンティブがなかった。 この2つが重なって、DXの理想は絵に描いた餅になった。


生成AI:仕事をすること=データを残すこと

生成AIはこの構造を根本から変えた。

自分は中小企業で経営幹部をやっている。担当業務は85個。その業務をAIエージェント(Claude Code)と一緒にやっている。

AIと対話しながら仕事をすると、何が起きるか。

「ログに残して」と言う必要すらない。AIと対話して仕事をしている時点で、その会話自体がログになっている。 何を指示して、何が返ってきて、どう判断して、何を修正したか。全部、対話の履歴として勝手に残る。

手を止めない。別のツールを開かない。意識すらしない。仕事をしているだけで、データが生まれている。

仕事をすることとデータを残すことが、完全に同じ行為になった。

しかも、データが雑でいい。

これがどれだけ革命的か、DXの現場を知っている人間なら鳥肌が立つはずだ。

これまでのデータ蓄積は、決まったフォーマットに、決まった形式で、決まったフィールドに入力するのが大前提だった。関数を組んで整形する。ETL処理を設計する。データベースのスキーマを定義する。「どうやったら正しいフォーマットでデータを収集できるか」を設計するのが一番大変で、一番コストがかかる工程だった。

DXプロジェクトが炎上する原因の大半がここだ。業務フローを分析して、データの入力フォーマットを設計して、現場にその通り入力させようとする。現場は「面倒だ」「今までのやり方の方が早い」と抵抗する。入力規則を守らないデータが混じって、バッチ処理がエラーを吐く。修正する。また壊れる。プロジェクトが半年延びる。よくある話だ。

生成AIは、このボトルネックをごっそり消した。

雑なメモでいい。走り書きでいい。箇条書きでも、口語でも、日本語と英語が混ざっていても。とにかくローデータを渡せばいい。AIが構造化してくれる。検索もできる。分析もできる。フォーマットの統一も、必要なときにAIがやる。

「どうやってフォーマットを揃えるか」「どうやってDBに入れるか」——この設計が不要になった。データ収集の難易度が、桁で下がった。

これはDXの文脈では革命だ。10年かけて「綺麗なデータを集める仕組み」を作ろうとして挫折してきた企業が、「とにかく雑でもいいから全部放り込め、あとはAIが何とかする」で済むようになった。

RAG(Retrieval-Augmented Generation)を理解している人には自明だろう。蓄積されたデータにAIがアクセスして、必要なときに必要な形で引き出す。蓄積の質より、蓄積の量と継続性が勝つ。フォーマットの美しさは、もう競争優位ではない。


「ログを取れ」は二流の助言。問題はそこじゃない。

ここまでの話を聞いて「なるほど、ログを取りましょう」と思った人は、半分しか理解していない。

ログの重要性なんて、まともなビジネスマンは全員わかっている。問題は「取るべきかどうか」ではなく、「取れなかった」 ことだ。

そして「ログを残しましょう」を目的にしてしまうと、手段と目的が逆転する。

「Xを自動化するためにログを残そう」——これは手段が目的化している。ログはXの自動化のために残すものではない。事業のデータ基盤として蓄積するものであって、Xやnoteのコンテンツはその副産物にすぎない。

業務フローとデータ構造を紐解ける人であれば、こう考える:

「この業務はどう流れて、その裏でどこにどんな行動データが集まって、それを次のどの業務に流し込めるか」

この思考が息をするようにできる人にとって、X投稿の自動化やnote記事の自動生成は、当たり前の帰結だ。別に大したことではない。データの流れの中に「コンテンツ生成」というノードを1個追加しただけだ。


コンサルのコアコンピタンスは、支援ログでしか作れない

この話はコンサルタントにとって特に切実だ。

クライアントとの打ち合わせ内容、提案した施策、その結果、改善のポイント。コンサル1時間に対して記録30分かかっていた。だから多くのコンサルタントは記録を省略する。記憶に頼る。そして同じ提案を別のクライアントにも繰り返す。

コンサルタントのコアコンピタンスは、過去の支援ログでしか作れない。 どの施策がどの条件で効いたか。どの業種のどのフェーズで何が起きたか。この蓄積が提案の精度を決める。

記憶は劣化する。美化される。順序が入れ替わる。数字が曖昧になる。

「うまくいった」——本当か? 数字はいくつだったか。「すぐに原因がわかった」——本当か? 実際は3日間ハマっていなかったか。

記録は嘘をつかない。行動データは、アンケートより正確で、質が圧倒的に高い。

生成AIが出てくる前、この蓄積には膨大な手間がかかった。今は、仕事をするだけで溜まる。


蓄積から収益までの設計図——ファイナンス思考

データが溜まる。ナレッジになる。提案の精度が上がる。ここまでは「守り」の話だ。

でも蓄積の価値は、もう一つある。資産からの収益だ。

蓄積されたログから、コンテンツが生まれる。コンテンツが人を集める。人が集まれば、そこに価値が生まれる。アフィリエイトでも広告でもPRでもコンサル受注でもキュレーションメディアでも、マネタイズの手段は何でもいい。大事なのは人を集めること自体に価値があるという構造だ。

これはPL(損益計算書)の発想ではなく、BS(貸借対照表)の発想だ。朝倉祐介氏が『ファイナンス思考』で指摘している通り、日本企業の多くはPL脳——「今月いくら稼いだか」に囚われている。

PLの発想:「今月いくら売れたか」「今期の利益はいくらか」 ファイナンス思考:「将来にわたってキャッシュを生み出す資産を、今どれだけ積み上げているか」

毎日の業務ログは、一つ一つは地味だ。PLには1円も載らない。でもそれが75章分蓄積されると、note記事の素材になり、有料コンテンツの基盤になり、コンサルの提案精度を上げ、事業の競争優位になる。

データ蓄積 → ナレッジ資産 → コンテンツ → 集客 → 収益

この流れを設計できたら、毎日の地味な仕事が「資産の積み上げ」に見えてくる。PLには載らないが、BSには載る。今月の売上にはならないが、来年の競争優位にはなる。

これがファイナンス思考で生成AIを使うということだ。


自分がやっていること

最後に具体的な話をする。

自分はAIエージェント(Claude Code)と一緒に仕事をしている。対話しながら仕事をするだけで、開発ログが蓄積されていく。現在Chapter 75。

このログから、note記事が自動で生まれる。「これを記事にして」と言えば、本文・サムネイル・ハッシュタグ・X投稿文が一括で生成される。25分で1本の記事ができる。

でもこの「記事が自動で生まれる」は、本質ではない。副産物だ。

本質は、75章分の実装・改修・失敗の記録が、自分のコアコンピタンスとして蓄積されていることだ。どの設計がうまくいって、どの設計が失敗して、なぜそうなったか。全部、行動ベースのアクティブデータとして残っている。

記憶ではなく記録。サンプルではなく全数。整形ではなく生データ。

TV CMの視聴率が900世帯のサンプル×アンケートだった時代から、全行動がデータになる時代まで、計測の歴史は「推測から実測へ」の一本道だった。

生成AIは、その実測の範囲を**「個人の業務行動」にまで広げた**。

これが自分にとっての生成AIの一番の価値だ。


筆者: コンサル・事業会社を経て中小企業の経営に参画。コードは1行も書けないが、Claude Codeで66個の業務スキルを構築し、経営業務の8割を自動化。日々の実験はXで発信中。


Share this post on:

Previous Post
AIと毎日8時間過ごしたら、人間の方が進化した
Next Post
スマホからAIエージェントを遠隔操作できるようにした話 — 3日間の失敗と、Claude Code Channelsという正解