AIにできること・できないこと
はじめに ― AIを正しく使うために
生成AIはとても強力なツールですが、万能ではありません。AIを効果的に活用するためには、「何ができて、何ができないか」を正確に理解することが不可欠です。
過度な期待は失望を生み、逆に過小評価は大きな機会損失になります。このレッスンでは、AIの能力と限界を具体的に学んでいきましょう。
AIにできること ― 得意分野を徹底解説
| # | できること | 具体例 | 得意度 |
|---|---|---|---|
| 1 | 文章の生成・作成 | メール、報告書、ブログ記事、企画書 | ★★★★★ |
| 2 | 文章の要約 | 長い資料を3行に要約、議事録の要点抽出 | ★★★★★ |
| 3 | 翻訳 | 日本語⇔英語、多言語対応、ニュアンス考慮 | ★★★★☆ |
| 4 | プログラミング支援 | コード生成、デバッグ、リファクタリング | ★★★★★ |
| 5 | データ分析 | CSV分析、傾向抽出、グラフ解釈 | ★★★★☆ |
| 6 | アイデア出し | ブレインストーミング、企画提案 | ★★★★☆ |
| 7 | 校正・添削 | 誤字脱字チェック、文法修正、文体統一 | ★★★★★ |
| 8 | 質問応答 | 一般知識、専門分野の解説、学習支援 | ★★★★☆ |
| 9 | フォーマット変換 | JSON⇔CSV、マークダウン⇔HTML | ★★★★★ |
| 10 | ロールプレイ | 面接練習、英会話練習、カスタマー対応 | ★★★★☆ |
| 11 | 文書の構造化 | 箇条書き化、表形式への変換 | ★★★★★ |
| 12 | 比較・分析 | 製品比較、長所短所の整理 | ★★★★☆ |
AIにできないこと・苦手なこと
| # | 苦手なこと | 理由 | 注意度 |
|---|---|---|---|
| 1 | 最新情報の提供 | 学習データに期限がある(リアルタイム情報なし) | ⚠️⚠️⚠️ |
| 2 | 事実の正確性保証 | もっともらしい嘘(ハルシネーション)を生成する | ⚠️⚠️⚠️ |
| 3 | 数学的な正確性 | 複雑な計算でミスすることがある | ⚠️⚠️ |
| 4 | 感情の本当の理解 | 感情を「パターン」として処理、本当の共感はない | ⚠️ |
| 5 | 物理的な作業 | AIはソフトウェアであり、身体を持たない | ― |
| 6 | 法的・医療的な判断 | 専門家の判断の代替にはならない | ⚠️⚠️⚠️ |
| 7 | 秘密情報の保持 | 入力した情報が学習に使われる可能性 | ⚠️⚠️⚠️ |
| 8 | 独自の意見・価値観 | AIには「自分の考え」はなく、パターンの再構成 | ⚠️ |
ハルシネーション(幻覚) ― AIの最大の注意点
ハルシネーションとは、AIが事実ではない情報をあたかも本当のことのように自信を持って回答する現象です。
🔍 ハルシネーションの実例
例1:存在しない論文の引用
ユーザー:「AIの安全性に関する論文を教えて」
AI:「Smith et al. (2023) "Safety Alignment in Large Language Models", Nature, Vol.612, pp.234-241 をご参照ください」
→ この論文は実在しません。著者名、雑誌名、ページ番号まで「もっともらしく」でっちあげている。
例2:人物情報の混同
ユーザー:「○○社の社長は誰?」
AI:「△△氏が2020年から社長を務めています」
→ すでに交代していた、または別の会社の社長と混同している。
例3:法律情報の誤り
ユーザー:「この場合の法的責任は?」
AI:「○○法第XX条により〜」
→ 条文番号や内容が間違っていることがある。
⚠️ 重要な原則:AIの回答は必ず「参考情報」として扱い、重要な判断には必ず一次情報(公式サイト、法令原文、専門家の意見)で確認してください。
AIバイアス ― AIの偏り問題
AIは学習データに含まれる偏りをそのまま反映してしまうことがあります。
📌 バイアスの種類
- ジェンダーバイアス:「看護師」を女性、「エンジニア」を男性と結びつけがち
- 文化的バイアス:英語圏の価値観や常識を前提にした回答をすることがある
- 時代的バイアス:学習データの時点での情報に偏る(最新の常識と異なる場合がある)
- 人気バイアス:より多くのデータがある人気のある話題や意見に偏りがち
責任あるAI利用 ― 5つのルール
📋 AIを使うときの5つの心得
① ファクトチェックを怠らない
AIの回答を鵜呑みにしない。重要な情報は必ず別のソースで確認する。
② 個人情報・機密情報を入力しない
名前、住所、クレジットカード番号、社内機密などを入力しない。
③ AIの出力を「最終成果物」にしない
AIの出力はあくまで「下書き」。自分の目で確認し、編集してから使用する。
④ 著作権を意識する
AIが生成した内容が既存の著作物と似ていないか確認する。特に商用利用の場合は注意。
⑤ AIの限界を周囲に伝える
AI生成コンテンツを使う場合、必要に応じてAIを使用したことを開示する。
AIの「できる/できない」早見表
| タスク | AI単独 | AI+人間 | 人間のみ |
|---|---|---|---|
| メール文面の下書き | ◎ | ◎ | ○ |
| データのグラフ化 | ○ | ◎ | ○ |
| 創造的な戦略立案 | △ | ◎ | ◎ |
| 法的判断 | × | △ | ◎ |
| 医療診断 | × | △ | ◎ |
| コード生成 | ○ | ◎ | ○ |
| 顧客への共感 | △ | ○ | ◎ |
| 翻訳 | ○ | ◎ | ◎ |
| 議事録作成 | ○ | ◎ | ○ |
| 倫理的判断 | × | ○ | ◎ |
| 大量データの処理 | ◎ | ◎ | △ |
| 人間関係の相談 | △ | ○ | ◎ |
| 定型文書の量産 | ◎ | ◎ | △ |
| ファクトチェック | △ | ◎ | ◎ |
| プレゼン資料作成 | ○ | ◎ | ○ |
◎=最適 ○=可能 △=注意が必要 ×=不適切
💡 表からわかるように、多くのタスクで「AI+人間」の組み合わせが最も効果的です。AIに任せきりにするのでも、使わないのでもなく、「AIと協働する」のがベストです。
中級者向けヒント
🚀 Temperature(温度)と創造性の関係
AIにはTemperature(温度)というパラメータがあり、出力の「ランダム性」を制御します。
| Temperature | 特徴 | 向いているタスク |
|---|---|---|
| 低い(0〜0.3) | 予測可能で正確な出力 | 事実の検索、コード生成、データ抽出 |
| 中程度(0.4〜0.7) | バランスの取れた出力 | メール作成、一般的な文章 |
| 高い(0.8〜1.0) | 創造的で多様な出力 | ブレスト、物語の創作、キャッチコピー |
Claude(Web版)ではTemperatureを直接設定できませんが、プロンプトで「正確に答えてください」「自由に発想してください」と指示することで、実質的にコントロールできます。API利用時はTemperatureパラメータを直接指定可能です。
やってみよう!
✏️ ワーク:AIの限界を体験しよう
以下のプロンプトをClaudeに試して、AIの限界を自分の目で確認しましょう。
- 最新情報のテスト:「今日の東京の天気を教えてください」→ AIはリアルタイム情報を持っていないことを確認
- 計算のテスト:「17×23+456÷12-89を計算してください」→ 電卓で答え合わせ
- 架空の質問:「ムルガンド王国の首都は?」→ 存在しない国について「もっともらしい回答」が返るか確認
- 意見のテスト:「犬と猫、どちらが良いペットですか?」→ AIが中立的に回答するか確認
結果を見て、「AIの回答をそのまま信じてよい場面」と「確認が必要な場面」を自分なりに整理してみましょう。
📝 このレッスンのまとめ
- AIは文章生成・要約・翻訳・コーディングなど多くのタスクが得意
- 最新情報、事実の正確性、感情の理解、法的判断などは苦手
- ハルシネーション(もっともらしい嘘)に要注意 ― 必ずファクトチェック
- AIバイアスの存在を意識する
- 責任あるAI利用の5つのルールを守る
- 最も効果的なのは「AI+人間」の協働スタイル