AIを「上位存在」として扱う人が増えて生きづらい
最近ちょっと「生きづらいな」と感じることが増えた。AIを自分より上位の存在——つまり絶対的に正しい審判者のように扱う人が、エンジニアの世界の外でも中でも、明らかに増えている。
コラム
kkm
Backend Engineer / AWS / Django
月にAI関連のサブスクだけで$460使っている人間が書いているので、AIアンチの記事ではありません。
私はフリーランスエンジニアで、Gemini Advanced に$250、Claude Pro/Max に$200、GitHub Copilot に$10。業務はAIによって間違いなく革命が起きたと思っていますし、毎日AIなしでは仕事が成り立ちません。AIが大好きです。その上で、最近ちょっと「生きづらいな」と感じることが増えました。AIを自分より上位の存在——つまり絶対的に正しい審判者のように扱う人が、エンジニアの世界の外でも中でも、明らかに増えています。
日常に侵食してきた「チャッピーが言ってた」

つい最近のことです。友人が働いている飲食店で、スタッフ間の人間関係トラブルがありました。よくある話ですし、友人は当事者ではなく巻き込まれた側でした。
問題はその後です。オーナーがChatGPT——友人いわく「チャッピー」——にトラブルの経緯を入力して、「誰が悪いか」を聞いたそうです。さらに、トラブルの当事者について「この人はどういう人間か」と評価させ、そのスクリーンショットを友人に送ってきました。
友人はそのスクリーンショットを私に見せて、「ほら、やっぱりそうだよね」と言いました。
正直、ぞっとしました。AIは入力された一方的な文脈だけで判断しています。当然、質問者に都合の良い回答が返ってきます。それを客観的な第三者の意見として受け取って、人間関係の判断に使っている。しかも、スクリーンショットという「証拠」の形で流通しているわけです。
ここで起きていること
- 1.一方の当事者だけの視点でAIに質問する
- 2.AIは入力に沿った回答を返す(当然そうなります)
- 3.その回答を「AIが言った=客観的」として扱う
- 4.スクリーンショットで「証拠化」して共有する
AIは質問者の入力をもとに、もっともらしい回答を生成する道具です。相手の言い分を聞いていませんし、その場の空気も知りません。そもそもAI自身が回答の冒頭で「一方的な情報に基づいた見解です」と注意書きを出すことも多いのですが、スクリーンショットになった時点で、その注意書きは都合よくトリミングされてしまいます。
YouTubeで量産される「AIが犯罪だと言っている」
YouTubeを見ていると、ここ半年で明らかに増えたパターンがあります。誰かを批判する動画の中で、「AIの○○に聞いてみました」と画面共有する流れです。
たとえばこういう構成です。「○○さんの『△△』という発言は××罪に当たるのか、AIに聞いてみました」「AIによると、犯罪に当たる可能性は大いにあるとのことです」——これを根拠に、その人を犯罪者とまでは言わないものの、犯罪的な人物という印象で批判する。こういう動画を頻繁に見かけるようになりました。
批判目的に限らず、AIの回答を「根拠」として提示する人はかなり増えたと感じています。
| AI回答の特性 | 利用者の認識 | 実際のところ |
|---|---|---|
| 「可能性がある」という表現 | 「犯罪だと断定された」 | あらゆる行為に何らかの可能性はあります |
| 一方の情報のみで回答 | 「公平な第三者の判断」 | 反対側の事情を一切知りません |
| 法的判断の留保を付ける | 留保部分をスキップ | AIは法的助言をする資格がありません |
| 質問の誘導に影響される | 「AIは中立だから信頼できる」 | 質問の仕方で回答は大きく変わります |
これは別にAIが悪いわけではありません。AIは質問に対してもっともらしい回答を返しているだけです。問題は、その回答を人間が「権威ある判断」に昇格させていること。弁護士に相談したら10万円かかりますが、ChatGPTなら無料で「犯罪です」と言ってくれます。使いたくなる気持ちはわかります。でもその回答の信頼性は、10万円の弁護士とは比較になりません。
エンジニアリングの現場でも起きていること
私はフリーランスエンジニアなので、いくつかのお客さんのところに行きます。その中で、一部のチームでAIをシステム開発において全ての面で人間以上だという前提で運用しているケースに遭遇することがあります。
意思決定、設計、実装、デバッグ、運用方針まで、すべてAIに聞いて、その通りにやる。人間の役割は「AIの出力をコピペして実行する」こと。エンジニアがレビューするというより、AIの出力を正として受け入れる空気があります。
こうなると何が起きるか。漠然と「○○を作って」とAIに投げて、返ってきたものをそのまま採用します。その結果——
- − システムの特性を考慮しないアーキテクチャが選択される
- − 将来のスケーリングやビジネスの方向性が反映されない
- − セキュリティやコスト最適化が後回しになる
- − なぜその設計なのか、誰も説明できない(「AIがそう言ったから」)
これは私が実際に見てきたことです。誤解しないでいただきたいのですが、AIをツールとして積極的に使うことには大賛成です。私自身、日々の業務でAIなしには戻れません。問題は「AIに任せる」と「AIに従う」は全く違うということです。前者は道具として使いこなしている。後者は道具に使われています。
2026年3月時点、AIが本当に得意なこと
ここで誤解なきよう、2026年3月時点で私が感じているAIの得意領域を整理しておきます。来月にはまた変わっているかもしれません。この業界の進歩はそのくらい異常な速度です。でも、今日の時点ではこう思っています。
| AIが強い領域 | 補足 |
|---|---|
| 要件・手法・設計が定まった上での実装速度 | 「何を作るか」が決まっていれば、コードを書く速度は人間を遥かに超えます |
| 技術調査・情報収集 | ある要件を満たすための手法の調査において、人間より早く、バイアスにかかりにくく、多角的に情報を集められます |
| テスト設計に基づくユニットテスト生成 | テスト設計さえあれば、それに準拠したテストコードを高速に用意できます |
| 定型的なリファクタリング | 命名規則の統一、型の追加、パターンの適用など、ルールが明確な作業です |
| AIがまだ弱い領域 | 補足 |
|---|---|
| ビジネス要件からの設計判断 | 「このサービスは3年後にどうなるか」を踏まえた設計はできません |
| トレードオフの重み付け | コスト vs パフォーマンス vs 開発速度の優先順位は、ビジネス文脈を知る人間が決めるしかありません |
| 既存システムとの整合性判断 | 「このチームの運用体制でこの設計は回せるのか」はAIにはわかりません |
| 漠然とした要求の構造化 | 「いい感じに作って」から最適解を出すのは、まだ人間の方が上です |
ポイントは、AIが得意なのは「人間が方向を決めた後の実行」であって、「方向を決めること自体」ではないということです。地図を読んでルートを決めるのは人間の仕事で、AIはそのルート上を高速で走ってくれるドライバーです。ドライバーに「どこに行くべきですか」と聞いても、最寄りのファミレスに連れて行かれるだけです。
なぜAIは「普通のコード」を書いてしまうのか
これは私の想像に過ぎませんが、一つの仮説として書いておきます。
AIは膨大なデータを学習に利用しています。たとえばGitHubに上がっているコード。そのうち、優秀なエンジニアが書いた「いいコード」と、そうでないエンジニアが書いた「よくないコード」、どっちが量として多いか。
圧倒的に後者です。
GitHub上の公開リポジトリの大多数は、個人の学習用プロジェクト、大学の課題、とりあえず動くことだけを目的としたプロトタイプです。プロダクション品質のコードを書いている企業のリポジトリは、多くがプライベートリポジトリで、当然、学習データに含まれません。
だから、手段や設計を提示してあげないと、AIは多数派——つまり量で言えば「一般的な」コード——を採用して書いてしまいます。これは悪意があるわけではなく、確率的に最も妥当な出力を返しているだけです。
つまりこういうことです:AIに「Webアプリを作って」と言えば、動くものを返してくれます。ですが、そのコードが本番環境に耐えるかどうか、スケーリングを考慮しているかどうか、チームで保守できるかどうかは、また別の話です。「動くコード」と「良いコード」の間には、まだ人間の判断が必要な大きなギャップがあります。
AIは道具であって、裁判官ではない
ここまでの話をまとめると、私が感じている「生きづらさ」の正体はこうです。
- ✓ 日常生活——AIの回答が「客観的な審判」として人間関係の判断に使われている
- ✓ メディア——AIの回答が「専門家の見解」として批判の根拠に使われている
- ✓ エンジニアリング——AIの出力が「最適解」として設計・実装の意思決定に使われている
共通しているのは、AIを「道具」ではなく「権威」として扱っていることです。
AIは素晴らしい道具です。私はこの道具のおかげで、エンジニアとしての生産性が何倍にもなりました。情報収集の速度も、コーディングの速度も、テストの網羅性も、すべて以前とは比較になりません。だからこそ言いたいのです。
道具は使いこなすものであって、従うものではありません。
電卓が登場したとき、誰も「計算はすべて電卓に任せよう、人間は数字の意味を考えなくていい」とは言いませんでした。Googleが登場したとき、「検索結果の1位が絶対の真実だ」と思う人はいませんでした(……いたかもしれませんが、少なくとも今はそうではないとみんなわかっています)。
AIも同じフェーズに来ています。便利さに目が眩んでいる時期を抜けて、「どこに使えてどこに使えないか」を冷静に見極める段階です。そしてその見極めは、AIを実際に深く使い込んでいる人ほど正確にできます。
私は月に$460使うくらいにはAIが好きですし、仕事に不可欠だと思っています。でもだからこそ、AIの出力を無条件に信じることの危うさも知っています。AIに人間関係の善悪を裁いてほしくないですし、法的判断を委ねたくないですし、システムの設計思想を丸投げしたくありません。
AIを一番うまく使える人は、AIが何をできて何をできないかを知っている人です。
そしてそれは、AIを「上位存在」として崇めている人ではなく、「優秀な道具」として使い倒している人だと思っています。
——と、ここまで書いたこの記事も、実はAIに手伝ってもらってます。道具としてね。