AI時代にブログを書く意味はある、と断言する理由
##誰も読まない。それでも私は書く
このブログで、私が今こうやって「AIの有効な活用方法をお教えします!」とか「最新!ggplotの活用法を伝授!」などと高説をのたまわったところで、一体何人の人に届くのか。答えは明白で、ほとんどの人には届きません。
なぜか。それは、このAI時代、Google検索をしてこのブログにたどり着く人が減っていくからです。
昨今のAIはWeb検索が当たり前となり、Perplexityのような検索AIの優位性が消えてしまいました。わざわざ私のブログに来て、ツールの使い方を習いに行こうと思う人はいません。使い方を知りたいと思ったら、まずAIに聞くでしょう。私だってそうします。
だから、このブログを読んでくれる人間など居ないのです。(もし貴方が人間だとしたら、読んでくれてありがとうございます。あなたのために面白い文章を書きましたので最後まで見ていってください。)
それを知っていて、なぜ私はこんなことを書いているのか。
約1年間、私はこの問いに向き合ってきました。AIが急速に進化する中で、ブログを書く意味とは何なのか。自問自答を繰り返し、ようやく一つの結論にたどり着きました。
答えは単純です。 この文章を「AIの肥やし」にしてほしいからです。
Webにある情報はすべて学習に使用可能な範囲で使われています。学習データとしてのWeb情報は枯渇したと言われるほどです。つまり、私の思想や思考というものは、知らないうちにAIに勝手に学習され、勝手に知識となってしまいます。吐いて捨てるほどあるコンテンツのうちの一つに過ぎません。一見無駄に見えることですが、どこかに絶対生き続けることになるのです。だから私はもう完全に割り切っています。自分の書く文章はAIの肥やしである、と。
アニメ『PSYCHO-PASS』の「シビュラシステム」をご存知でしょうか。PSYCHO-PASSはスーパーコンピューターが犯罪者や犯罪者予備軍を「犯罪係数」という数値で評価することで、犯罪を根絶した日本の姿を描いた作品です。そのスーパーコンピューターがシビュラシステムと呼ばれるシステムであり、シビュラによってある種統治された世界です。しかし、物語が進むにつれて、シビュラの実体は多数の犯罪係数測定不能な犯罪者の脳をネットワークでつなぎ合わせた有機的なシステムであり、「犯罪者が犯罪者を見つけている」という皮肉な真実が明らかにされています。高度な知能を持った犯罪者の脳は、巨大なシステムの一員として計算処理の一部を請け負うだけとなっています。しかし彼らの脳は自我を保っています。彼らはシビュラの一部となることにやりがいを感じ、システムを更に良いものとする野心を持っています。

私のイメージはそれです。私の紡ぐ文章が、文字が、シビュラシステムの一員となるのです。仮に私が死んだ後でも、私の思考は巨大な知性の一部として永続します。
とはいえ、「AIのために文章を書く」というのは抵抗がある人も多いと思います。私もそうです。AIの肥やしになるという現実を受け入れた上で、それとは別に、人間が読んで面白い文章を書く努力はやめません。それが自分の人間としての価値を高める営みだと信じているからです。
では、人間のために書くとして、何を書けばいいのでしょうか。
答えは明確で、「あなただからこそ」の知見です。
上辺だけの読書感想文など誰も求めていないのです。そんなものはAIに任せておけばいい。
本当にあなたはどう思うか。「思考力」が極めて重要な時代だと思います。
だからこそ、私はここで意思表示をします。
あえてこのブログを書くことで、私にしか書けない視点で、このAI時代に私たち専門職がどうやって生きていくべきか。私の考えをここで共有してみたいと思います。
##「思考」の定義を変えた2年間、AI進化の軌跡
ここで、AIの進化について読者と足並みを揃えるため、LLMの進化についておさらいさせてください。多くの人の認識が、まだ「過渡期のAI」で止まっているように感じることがあり、前提となるAIの能力が誤解されては困るからです。
「AIなんてブログ記事を量産してくれるだけのツールでしょ?」と、その本質的な知性を軽視している人がいます。
あるいは「AIはハルシネーション(嘘)ばかりで、実務ではまだ信用できない」と、古い精度のまま認識が止まっている人がいます。
はっきり言いますが、どちらも間違っています。
2025年現在、AIはかなり実用的で、ハイクオリティな文章を生成することができるようになっており、人間の知性を超えつつあります。私たちが今、具体的にどのような「知能」と対峙しているのか。その現在地を正しく認識するために、この激動の2年間を振り返ります。
###GPT-4の興奮と限界
2年前、GPT-3の後にGPT-4が登場しました。本当にたくさんの仕事が塗り替えられるかもしれないと興奮したのを覚えています。
しかし実際は、できるタスクとできないタスクがかなり限られていました。ハルシネーションの問題や、文脈が無視される問題など、様々な課題がありました。この頃はまだ、AIは「便利な道具」に過ぎませんでした。
###RAGの幻滅と、エージェントへの統合
昨年(2024年)はだいぶ洗練されてきました。GPT-4 TurboやClaude 3、Geminiなどが登場しました。そして昨年の流行は RAG(Retrieval Augmented Generation) でした。外部の情報を引っ張ってきてAIに答えさせる仕組みです。
一時、RAGに対して「期待したほど精度が出ない」という幻滅期も訪れました。文脈の途中にある情報を読み飛ばしてしまうなどの課題があったからです。
しかし現在では、その幻滅期を乗り越え、RAGはAIエージェントの一部として不可欠な機能になりました。単独の技術として騒がれることは減りましたが、エージェントが裏側で適切に記憶を参照し、ツールとして使いこなすための技術として、静かに、しかし確実に統合されています。
###2025年、リーズニングのブレイクスルー
さらに1年が経ち、2025年。o1により「Reasoning(推論)」の時代がもたらされました。ここが決定的でした。AIは単なる検索や要約だけでなく、「考える(推論する)」力を手に入れたのです。Reasoningとは、プロンプトに対する出力をいきなり行うのではなく、思考過程としてトークンを消費し、思考過程を最後に統合して高品質な出力を行う手法のことです。
Reasoningにより今までスケール則の限界ではないか、と言われていた状況が完全に打破され、LLMの能力が飛躍的に向上しました。 今やじっくり考えるモードと、素早く答えるモードが、あらゆるプラットフォーマーから用意されています。
Reasoning以前と以後では、AIの能力がまったく異なります。もし昨年9月以降にろくにAIを触っていないのならば、今すぐにReasoningモデルを試すべきです。
###モデルを選り好みする時代の終焉と「最強の道具」
2025年末現在、もはやReasoningは当たり前のものとなり、オープンモデルですらReasoningができるようになっています。今や、最低限日常業務でAIが果たすべき仕事を、どのモデルであってもきっちりと超えてきます。もう難しいことを考えなくても、どれか好きなモデルを使っていればいいのです。
1年前は用途によってモデルを使い分ける必要がありました。しかし今は、どのモデルも最低限のラインを超え、コーディングも推論もこなします。
昨年は「AIを使う人間」が試されていましたが、今はすごく安価に、誰でも高性能なモデルにアクセスできます。だからこそ、Poeのような「いろんなモデルを試せるサービス」は役割を終えつつあると感じています。
このように、AIは「試行錯誤する道具」から「思考し、業務を完遂するパートナー」へと進化しました。
###AIエージェントがエンジニアを殺した
2025年はAIエージェントの年でした。コーディングも推論もこなすAIエージェントが登場し、エンジニアの仕事が激減しました。
6月にClaude Codeが月100-200ドルで使い放題となり、今までトークンを節約しながらエージェントを開発するのが基本だった風潮から、ねちっこく問題が解決するまでトークンを浪費して考え抜く方向へと流れが代わり、Claude Codeを始めとするAIエージェントは爆発的に多くのエンジニアに使われるようになります。その後CodexやCursor cliやGemini cliといった類似サービスも登場し、今や実用的なAIエージェントが誰でも安く使えるようになっています。
一応Clineなどといったエージェントは昨年末の時点でも存在していたのですが、バグ修正が思うようにできないとか、色々な問題がありました。今やClaude Codeは一つのウェブサイトをゼロから完璧に構築したり、高度な研究プロジェクトをほぼストレスなく完遂することができます。
AIエージェントがかなりのクオリティでコードを書けるようになったため、ジュニアレベルのエンジニアはかなり求人が減っているそうです。もちろん、プロジェクトをマネジメントする層は依然として必要とされていますが、コードを書くという作業はかなりの割合でAIによる効率化が進んでしまっているのが現状です。
##バイオインフォマティシャンはコードを書いている場合ではない
AIが「知識がやたらある学生」レベルから、推論もコーディングもできる「少し頭の良い社会人」レベルへと進化した今、人間は何をすべきなのでしょうか。私の専門分野であるバイオインフォマティクスを例に考えてみますが、これはあらゆるエンジニア、専門職に通じる話だと思います。
結論から言うと、バイオインフォマティシャンはもうコードを書いている場合ではありません。
エンジニア界隈では、簡単なコードを書く仕事はどんどん廃れていくと言われています。難しいシステムを設計し構築するところだけが人間の仕事になっていく。簡単なコードはAIが書きますし、ちょっとした作業はAIによる「書き捨てのコード」で十分な場合も多くなっています。 「ちょっとR言語が使えます」「腸内細菌の解析ができます」と言われても、今は何も驚きません。「そんなコードはAIにやらせれば書けるでしょう」という話にしかならないからです。残酷ですが、月100ドルのClaude Codeの方が年収500万円のジュニア研究員よりもまともなコードが書けます。
###求められるのは研究マネジメント能力
では次に、人間に求められる能力は何でしょうか。 「解析ができます」ではなく、その解析からどういう統計学的な手法を使ってインサイト(洞察)を得られるか。あなたは目の前のデータをどう解釈するのか。 あるいは実験計画として、どういう実験を組み立て、何を検証したいのか。 つまり、研究のマネジメント能力です。
私はバイオインフォマティクスは究極ただの道具だと思っています。 研究目標を達成するための一つの技術に過ぎません。バイオインフォから得られた仮説は実験により検証されねばなりません。DLの分類器を作って終わりではなく、それが社会実装に耐えうるか、ヒト試験や臨床試験を行うところまでが研究です。
###環境構築でふんぞり返るな
最近の私はディープラーニングモデルや、ライフサイエンス系の生成モデルを試す機会が増えました。AI以前の世界であれば、CS学部を卒業していない私がこういった領域に足を踏み入れるのには途方もない時間を要したでしょう。
昔はGitHubのチュートリアルを見て、環境構築をし、モデルが動く状態にするまでが一仕事でした。
しかし私は、そこすらもうAIの仕事だと思い始めています。
「試行錯誤をずっとして」とAIエージェント(Claude CodeやCodexなど)に指示すれば、環境依存の問題などはほぼ解決してくれます。
半年前までは、AIとエラーログのキャッチボールをしていました。今では、物によっては完全にAIエージェント内で自己解決するケースが増えてきました。
「環境構築ができる」程度のことでふんぞり返っていると、本当に職を失います。実際、いつまでも環境構築に時間をかけているようでは、今のスピード感についていけません。
昔は「コードを書くのに1ヶ月かかって大変だったけど、やり遂げました」といった話がありましたが、今は違います。「いけるかなと思ったのでやりました」と言えば、結果が出てくるのは1日後です。 計算時間だけがボトルネックであり、「コードを書く」ことや「どういう技術を使えばいいかの調査」といった時間は、AIによって完全にボトルネックではなくなりました。
実際、採用面接でこの現実を痛感しています。バイオインフォマティシャンは人口が少ないため、周りがどうやって仕事をしているかが見えにくいのですが、「AIを使っていますか?」と聞くと、「使っていません」と答える人がほとんどです。まともに使っていると答えた人は片手で数えるほどしかいませんでした。 コーディングテストをやってみても、まともにプレゼン形式で「私はあなたの技術からこうだと考えました。だからこういう分析をやってみました」と、自らの思考プロセスを話せる人が本当に少ないのです。日本のバイオインフォマティクス研究員はちょっとコードが書ければ何らかの職にありつけてしまっていたのではないか。環境構築だ、ライブラリの使い方がどうだとかに時間を費やし、道具であるはずのバイオインフォマティクスが目的になった人が多いのではないかと思っています。
##では、バイオインフォマティクスではどうすればいいのか
批判だけしていても仕方ありません。建設的に「バイオインフォマティクス領域では具体的にどうすればいいのか」についても私の考えを述べます。
###手を動かすな、要件定義しろ
ついつい手を動かしたくなりますが、あえて手を動かさないでください。
今、私たちが一番最初にやるべきことは要件定義です。エージェントに対する「研究の要件定義書」をきっちりと書いてあげること。
急がば回れです。しっかり準備さえすれば、AIエージェントはかなりクオリティの高いものを作ってきます。準備が9割です。
###実際のワークフロー
Claude CodeやCodexといったエージェントに、以下のようなコンテキストを与えて進めます。
- plan.mdを作らせる(実験計画)
- knowledge.md などをベースに研究のプランニングを立てます。どういうことをどうやるか、AIに考えてもらいます。
- その際、Web検索がネイティブに使える環境で情報収集を行います。
- experiment.mdを作らせる
- プランをベースに、具体的な実験手順書を作成させます。
- コーディング計画を立て、実行させる
- 実際に Jupyter Notebook (.ipynb) を作らせてデータ分析を行います。
- 人間によるフィードバック
- 結果を人間が見てフィードバックします。「こういう解析が必要だったな」「これはちょっと意図と違ったな」といった内容を書いていきます。
- 考察とループ
- 結果の考察を別のマークダウンファイルに残します。
- このフェーズを繰り返し、最終的なレポートを完成させます。
ファイルのありかや、Gitにコミットするタイミングなど、エージェントの「ステアリング(操縦)」だけしっかりしておけば、エージェントはもう自律して研究できる状態になっています。
情報はありったけ突っ込んでおき、あとは全ての思考プロセスにおいて、Claude CodeやCodex、Gemini CLIを使ってどんどんやるべきです。
###人間によるフィードバックの重要性
もう一つ重要なのは、人間によるフィードバックです。
AIエージェントが出してくる成果物は、コンテキストが小さい序盤は非常に性能が良いのですが、コンテキストが巨大になるにつれて、だんだん崩壊していく傾向があります。そこは人間が手綱を握る必要があります。
##結び
冒頭で、私は自分の文章を「AIの肥やし」と表現しました。シビュラシステムの一員となる覚悟を語りました。約1年間の自問自答の末に、ようやくたどり着いた結論でした。
しかし思い出してください。シビュラを構成する脳たちは、ただのパーツではありませんでした。彼らは自我を保ち、システムをより良くしようとする野心を持っていたのです。
私がこのブログを書く理由も、同じです。 ただ学習データとして消費されるためではなく、AIという巨大な知性の中で、私の思考が「質」として残り続けることを望んでいます。シビュラの一員でありながら、シビュラを更新し続ける意思を持つこと。それが、私がAI時代にブログを書く意味です。
このブログは誰も読まないかもしれません。それでも書きます。 人間が読んで面白いと思う文章を、私だけの視点で紡ぎ続けます。 なぜなら、AIが何でもやってくれる時代だからこそ、「あなたはどう思うか」という問いへの答えを持つことが、人間としての最後の、そして最高の価値だからです。
コードを書いてふんぞり返っている場合ではありません。思考を放棄している場合ではありません。 私たちに残された仕事は「考えること」、そして、その考えを言葉にして残すことなのですから。
-
LLMはepochを1回しか学習しないので、学習データは一度しか見ていません。それにも関わらず、稀にLLMは学習データを一言一句違わず生成することができるため、意外と私の書いた文章は薄まらずに一つの知識として残るのかもしれません。 ↩
-
DeepSeekとかKimiとかQwenみたいなオープンモデルなら無料で試せると思います。ChatGPTやGeminiの有料モデルが性能は最高水準なので、課金することがベターです。Google AI StudioならGemini3を試すことができるので、そちらもおすすめです。 ↩
-
何を使えばいいか:Google WorkspaceユーザーならGoogle (Gemini)、Microsoft 365ユーザーならCopilot Pro、個人ならChatGPTで良いでしょう。絶対に月額課金にして、最良のサービスに合わせて乗り換えられるようにしておくのが正解です。 ↩
-
Gemini 2.5 Proのブレイクスルー:個人的にはGemini 2.5 Pro/Flashが2025年のブレイクスルーでした。Google Workspaceとの親和性が高く、ついに業務レベルでChatGPTを超えうる選択肢になったと感じています。 ↩
-
uvなどの仮想環境管理ツールがデファクトとなったことも大きく貢献しています。 ↩