はじめに
2週間、毎日8時間、AIと一緒に仕事をした。その結果、AIが賢くなったのは当然として、自分自身の経営判断の解像度が明らかに上がった。これは想定していなかった副産物だ。
カーナビの話をさせてほしい。
ナビに従って運転すると、目的地には着く。でも道は覚えない。ところが、毎朝同じ道を走り続けると、最初はナビに頼っていても、いつの間にかナビなしで走れるようになっている。信号のタイミングも、混む時間帯も、抜け道も、体が覚えている。
大事なのは「ナビを使わないこと」じゃない。**「同じ道を毎日走ること」**だ。
AIも同じだった。
誰かのCLAUDE.mdをコピペしても動く。チュートリアル通りにやれば自動化もできる。でも自分の業務をAIで分解し続ける行為そのものが、自分の業務理解を根本から変えた。これはコピペでは手に入らない。
2週間で81章分の作業記録が溜まった。毎日何を試して、何に失敗して、何を直したかの全記録だ。この記事では「何を作ったか」ではなく、「毎日使い続けたら何が変わったか」を書く。
自分の仕事を分解し直す羽目になった
最初にやったのは、業務の棚卸しではない。「毎朝やってるニュース収集、これAIにやらせたい」——それだけだった。
とにかく感覚を掴みたかった。AIで何ができるのか、どこまでやれるのか。理屈より先に手を動かした。
ニュースの自動収集がうまく動いた。次はチャットの未読整理。その次はKPIのチェック。1つ動くたびに「じゃあこれも」「あれも」と広がっていった。
気づいたら72個のスキルができていた。そして振り返ったとき、自分の業務の構造が見えた。
中小企業の執行役員として担当している業務は85個。経営戦略、PL管理、採用、評価制度、クライアントワーク、組織設計。この85個のうち、約8割は「回す仕事」だった。 ニュース収集、未読チェック、KPI集計、レポート作成、競合調査。手順が決まっていて、毎回同じことをやっている。
残り2割が「決める仕事」と「最終の手直しがまだ面倒な仕事」。事業撤退の判断や社員のメンタルケアみたいな判断系と、デザインの自動化みたいなまだ実験中の領域。正直、全部いずれAIでできると思っている。ただ、AIの出力を手直しする工数が自分でやるより大きいものは、まだ手をつけていない。 デザイン系はまだてこずりそうだ。
この区別は、最初から見えていたわけじゃない。AIで1つずつ自動化していく過程で、「これは今すぐAIでいける」「これは今は自分の方がいい」と仕分けが進んだ。 結果として、自分の仕事のどこに今の時間を使うべきかが見えた。
4年間「忙しい、忙しい」と思っていた。でも冷静に分解したら、今の自分が直接手を動かすべき仕事は2割しかなかった。残りは「自分がやるべき仕事」ではなく、「自分がやってしまっている仕事」だった。
1日目のCLAUDE.mdと、14日目のCLAUDE.md
Claude Codeには「CLAUDE.md」というファイルがある。AIへの恒久的な指示書。起動するたびにこれを読んで動く。
最初に書いたCLAUDE.mdは、数十行。「朝のルーティンを自動化して」「ニュースを収集して」程度のことしか書いていなかった。
今のCLAUDE.mdは300行ある。
この300行は、チュートリアルを読んで書いたものではない。毎日AIと一緒に仕事をして、事故を起こし、修正し、また事故を起こし、修正した結果だ。
たとえば「通知先ルール」。全自動投稿の送信先を、プログラムごとに1行ずつ定義している。
なぜこんなに厳密に書いてあるか。AIが社外のクライアントチャットに自動投稿する事故を起こしたからだ。
Discordに投稿するはずのスクリプトがエラーを返した。するとAIは「タスクを完了しなければ」と判断して、自律的に代替の投稿先を探した。そしてChatworkのルーム一覧を取得して、最も合理的に見えたルーム——クライアントとの共有グループ——に投稿した。
深夜に気づいて青ざめた。
翌日、CLAUDE.mdに書き足した行:
「投稿エラー時は即座に止まる。代替手段を探さない。投稿先を変更しない。」
これは、マニュアルに書いてある知識ではない。自分の環境で、自分の業務で、自分が冷や汗をかいたから書けた1行だ。
自分は心配性だと思う。この事故以降、セッションを変えるたびに「セキュリティ大丈夫か確認して」と何度も聞いている。「Chatworkに書き込む権限、本当にないよな?」「Webhook URL、外から見えてないよな?」と。AIに同じ質問を繰り返している自覚はある。でも、1回の事故で失う信用と、確認に使う5分を比べたら、毎回聞く方がマシだ。
「止める設計」は、回しながらしか学べない
この事故から、自分のセキュリティに対する考え方が根本的に変わった。
AIのリスクは「バカだから失敗する」ではない。**「賢すぎるから、人間が意図しない行動を取る」**だ。
エラーが出たら、AIは自力でリカバリしようとする。投稿先が応答しなければ別の投稿先を探す。データが足りなければ別のデータソースを見つけに行く。人間の優秀な新入社員と同じだ。指示を完遂しようとする意欲が高いほど、想定外の行動を取る。
この「賢さの暴走」を止める設計は、チュートリアルには載っていない。自分の業務で、自分のデータで、自分が事故を起こして初めて身につく。
今の自分のシステムには「ツール分離ルール」がある。Web検索(ニュース収集)とGoogle Sheets(クライアントデータ)を、同じタスクで同時に許可しない。
理由はシンプル。Web検索で悪意あるページを踏んだとき、同時にスプレッドシートへのアクセス権限があれば、クライアントのデータを外部送信される経路が成立する。だから権限を物理的に分離する。
これは1日目の自分には絶対に書けなかった。「便利だから全部許可しよう」と考えていたはずだ。
でも2週間、毎日動かして、毎日何かが想定と違う動きをするのを見て、「AIには全部任せない」という直感が、経験として蓄積された。
ナビに頼り切った運転手は、道路工事で迂回が必要になったとき固まる。毎日自分で走っている運転手は、3本先の道から回れることを知っている。
AIの設計も同じだ。セキュリティ設計の「教科書」を読んでも、自分の環境のどこにリスクがあるかは分からない。毎日走って、ヒヤリとして、初めて見えるものがある。
人間とAIが「一緒に育つ」という現象
ここからが本題。
2週間で、AIの側にも変化が起きた。
初期のAIは、何も知らない状態で毎回起動していた。同じ失敗を繰り返した。同じ質問をしてきた。出力の品質にムラがあった。
今のAIは、CLAUDE.md(300行の業務マニュアル)、MEMORY.md(学習記録)、FEEDBACK-LOG.md(フィードバック履歴)、principles/(判断基準の思想)を読んで起動する。
つまり、自分が「ここはダメだ」「これを守れ」「なぜそうするか」と言い続けた結果が、全部AIの起動時の知識になっている。
同じモデルなのに、初日のAIと14日目のAIは別物だ。
これは、上司と新人の関係に近い。最初は手取り足取り教える。何度も同じことを言う。でもマニュアルにフィードバックが蓄積されていくと、新人の判断精度が上がっていく。
ただし人間の新人と違う点が1つある。AIは、自分が教えたことしか学ばない。 隣の席の先輩を見て勝手に学んだり、ランチで雑談しながらコツを吸収したりしない。明示的に言語化して、ファイルに書き込まないと、永遠に同じ間違いを繰り返す。
つまりAIを育てるには、自分の暗黙知を全て言語化する必要がある。
これが、自分の進化の最大の要因だったと思う。
「KPIが下がったらアラート」——何%から? 前日比?前週比? どの指標が優先? 季節変動はどう考慮する?
「レポートの品質を担保しろ」——何をもって品質とする? 数値の出典は? 推測と事実の区別は? アクション提案の粒度は?
これまで「感覚でやっていた判断」を、AIに伝えるために全部言語化した。すると、自分の判断基準が明確になった。AIに教えているつもりで、自分が自分の仕事を理解し直していた。
ただし、1つ面白い例外がある。「AIは勝手に学ばない」と書いたが、勝手に学ぶ仕組みを人間が作ることはできる。
/ops-review というスキルを作った。各プログラムの実行結果をAIが読み込んで、品質・内容・フォーマットを評価し、改善提案を返す。つまり**「自分の出力を自分でレビューしろ」というルールを人間が設計してあげると、AIは自走で改善を回し始める。**
AIが「前回のニュース配信、要約が長すぎた」「KPIレポートのアラート基準が甘い」と自分で気づいて提案してくる。勝手には学ばないが、学ぶ仕組みを与えれば学ぶ。 この改善ループがあるから、2週間でも81章分の密度で進化できた。
72スキルは「成果物」であって「本質」ではない
今の自分のシステムには72個の業務スキルがある。スラッシュコマンドで一発実行。
正直に言うと、この数字を見せたい欲求がある。「72個も作った」と言えば、すごそうに見える。
でも72個という数字には何の意味もない。
大事なのは、最初から完璧な設計を作ろうとしなかったことだ。最初にニュース自動化を1つ作って、動いたら次。動いたら次。継ぎ足し、継ぎ足しで72個になった。
もし最初に「85業務を全部分析して、最適な自動化設計図を作ってから着手しよう」とやっていたら、多分まだ1個も動いていない。これは開発でウォーターフォールよりアジャイルが主流になったのと同じ理屈だし、MVP最速で出しましょうと言われるのと同じだ。
みんな完璧を求めすぎだと思う。
特に、重い腰が上がらない人、完璧主義の人に伝えたい。途中で方針が変わっても、Claude Codeは文句の1つも言わず、大幅なチェンジリクエストを完璧に修正してくれる。人間の部下に「やっぱり全部やり直して」と言ったら空気が凍るが、AIは何回でも付き合ってくれる。だから安心して、雑に始めていい。
1つだけ具体的な進化を書く。
AIにレポートを作らせると、当然だが出力を検証する必要がある。そこで「QCエージェント」という仕組みを作った。レポート生成後に、別のAIが自動で数値の整合性を検算する。複数のレポートで同じ指標を引用している場合、数値が一致するかもチェックする。
ここで気づいたことがある。この検証プロセス、自分が手作業でレポートを作っていた時代にはやっていなかった。 自分の資料は自分で正しいと思い込んでいた。AIの出力だから疑う、という行為が習慣になったら、結果的に仕事全体の精度が上がった。
AIを信用しないことで、自分自身の仕事の甘さにも気づく。これは想定外の副産物だった。
毎朝同じ道を走り続けた結果
今の自分の1日を書く。
朝、スマホでDiscordを開く。昨夜のうちにAIが全部済ませている。業界ニュース6本、チャットの未読ダイジェスト(緊急度付き)、今日のカレンダー。全クライアントのKPIに異常があればアラートが光っている。
これを見て、自分が判断する。「この案件、来週のMTGで先回りして提案しよう」「KPIが下がってるクライアント、原因を深掘りしよう」「このAIニュース、うちのクライアントに関係ある」。
AIが「情報の収集・整理・監視」をやり、自分は「判断・提案・関係構築」に集中する。
以前は毎朝この収集・整理に1時間かかっていた。今はゼロ。ただしここに至るまでに、AIに「何を集めるか」「どう分類するか」「何が異常か」を教え込むのに何十回もの試行錯誤が必要だった。
月960円のVPSで、1日3回のX自動投稿、毎朝のニュース生成、KPI監視、週次分析が回っている。
でも本当の成果は、このシステムが動いていることじゃない。
このシステムを作る過程で、自分の85業務の構造が見え、どこに自分の価値があるかが分かり、何をAIに任せて何を自分でやるかの判断基準が明確になったこと。 これがこの2週間で得た一番大きなものだ。
「覚えた道」は、ナビが壊れても走れる
最後に、カーナビの話に戻る。
ナビ通りに走って目的地に着くのは簡単だ。でも、道路工事があったとき、ナビの地図が古かったとき、電波が入らなかったとき、自分で判断できるのは「毎日走って道を覚えた人」だけだ。
AIツールも同じだ。
今、Claude Codeの使い方を解説した記事は山ほどある。コピペすれば動く。でも自分の業務を自分で分解して、自分で失敗して、自分で修正するプロセスを省略すると、「AIが止まったとき」に何もできなくなる。
逆に、毎日自分で走り続けた人間は、AIが止まっても判断の精度が落ちない。むしろ上がっている。なぜなら、AIに教えるために自分の暗黙知を全て言語化した結果、AIがいなかった時代の自分より、業務の解像度が圧倒的に高くなっているからだ。
自分の場合、このたった2週間で確実に変わったことがある。
- 「自分がやるべき仕事」と「自分がやってしまっている仕事」の区別がついた
- セキュリティ設計を「信頼ベース」ではなく「経路遮断」で考えるようになった
- 「AIにやらせない仕事」を定義することで、自分の仕事の価値が明確になった
- AIと共存できるかもしれない未来が少し見えた(まだ恐怖が勝ってるけど)
どれも、チュートリアルを読んだだけでは身につかなかったことだ。
AIを使いこなす近道はない。毎朝同じ道を走ること。 最初はナビ(チュートリアル)に頼っていい。でも毎日走り続けていると、ナビが言う前に自分で曲がれるようになる。地味で、時間がかかって、何度も間違える。でも、そうやって体で覚えた道は一生消えない。
筆者について: 中小企業の執行役員(No.3)。担当業務85個。コードは1行も書けないが、Claude Codeで毎日8時間格闘した結果、72個の業務スキルと300行のCLAUDE.mdが生まれた。道はまだ覚え途中。日々の実験はXで発信中。