※本記事は、ChatGPT/Gemini/perplexityによる意訳+翻訳、情報ソースを活用し、レイアウト調整したものです。
※元記事を見て、内容がズレていないか査読するようにしています。
※感想は、オリジナルです。
原文
To avoid being replaced by LLMs, do what they can't | sean goedecke
意訳+要約
LLMに取って代わられないように、彼らにできないことをする
短期的な戦略:AIを理解し、活用し、地位を確立する
- AIツールを積極的に活用する
- LLMの技術的原理を理解する
- 社内での地位を高める
大企業は新技術の導入に時間を要するため、AIが大量の職を置き換えるには少なくとも5年はかかると予想されます。
中期的な戦略:レガシーコードに注力する
中期的な戦略としては、LLMが苦手とする分野に注力することを提案しています。
LLMの得意分野
- 技術的に難易度の高い問題
- 明確に定義され、範囲が限定された問題
- 検証が容易な問題
- コード量が少ない問題
LLMの苦手分野
- 不明確で範囲が広い問題
- 検証が困難な問題
- コード量が膨大な問題
これらは、レガシーコードの特徴です。既存の巨大なコードベースにおける機能追加や修正は、LLMにとってハードルが高いため、この分野に注力することで、エンジニアとしての価値を高めることができます。
長期的な戦略:責任を担う
長期的な戦略として、「責任を担う」ことの重要性を強調しています。
マネジメントとは、単に優れた意思決定を行うことではなく、その決定に対する責任を負うことです。エンジニアも単にコードを書くだけでなく、技術的な問題に対して責任を持ち、プロジェクトを成功に導くことが求められます。
LLMは、現時点では責任を負うことができません。技術的な意思決定に対する責任を負い、関係者からの信頼を得ることで、LLMには代替できない存在となることができます。
まとめ
LLMの進化は目覚ましいものがありますが、エンジニアが取るべき戦略をしっかりと理解し、実行することで、LLM時代においても活躍し続けることができます。
- 短期:AIツールを活用し、AIの原理を理解し、社内での地位を高める
- 中期:レガシーコードに注力する
- 長期:責任を担う
検証
LLMを用いた巨大なコードベースリファクタリングの課題
- スケーラビリティと実行可能性: LLMによって生成されるコードの検証が大規模プロジェクトで継続的に行われるためには、適切なリソースが必要です。
- ハルシネーションの問題: LLMが不適切なコード修正を提案するリスクを適切に管理する必要があります。
- 評価と信頼性: 提案された修正が正確かつ効果的であることを保証する評価基準が不足しており、信頼性の確保が課題となっています。
参考リンク
ソフトウェアエンジニアリングにおけるLLMの適用に関する最新論文調査【技術動向調査】 | DOORS DX
人間とLLM(大規模言語モデル)の主な特徴
| 特徴 | 人間 | LLM |
|---|---|---|
| 処理速度 | 比較的遅い | 非常に高速 |
| 情報量 | 個人の経験に限定 | 膨大なデータを学習 |
| 一貫性 | 疲労により変動 | 24時間一貫した出力 |
| 創造性 | 真に独創的なアイデアを生成可能 | 学習データの範囲内で制限あり |
| 感情・共感 | 深い感情と共感能力あり | なし |
| 倫理的判断 | 複雑な判断が可能 | 学習データのバイアスに影響される |
| 文脈理解 | 非言語的手がかりも理解可能 | テキストベースの情報に限定 |
| 実世界経験 | 五感を通じた直接経験 | テキストデータからの間接的理解 |
| 多言語対応 | 習得に時間がかかる | 複数言語を同時に扱える |
| 専門知識 | 分野ごとに習得が必要 | 広範な分野の知識を保有 |
参考リンク
https://www.anlp.jp/proceedings/annual_meeting/2023/pdf_dir/B5-1.pdf
平均的な人間の能力を超えた―、常識や知識を獲得した大規模言語モデルが開く新ビジネス領域 | Coral Capital
責任を担うために必要なこと
- 自分の役割と任務を明確に理解すること。
- 目標を設定し、その達成に向けて全力を尽くすこと。
- 権限と義務のバランスを把握すること。責任を果たすために必要な権限を適切に行使し、同時に義務を果たすこと。
- 報告・連絡・相談を適切に行い、情報共有と透明性を保つこと。
- 判断力と決断力を磨くこと。正しい判断に基づいて行動することが重要。
- 失敗を恐れず、問題に真摯に向き合い、必要に応じて何度もやり直す姿勢を持つこと。
- 全体の利益を考え、理性的に行動すること。
参考リンク
責任ある立場の人こそ成長する!できる人が知っている 3つのこと | A&PRO
ビジネスにおける3つの「責任」~曖昧な自己責任論を超えて | 社員のエンゲージメント向上を支援する 株式会社 NTT HumanEX
就活生必見!! 仕事の責任感について | ホワイト企業が集まる就活情報サイト | ホワイトキャリア
感想+雑記
AIにできないこととなると、やはり社会的な責任をとることになるよなぁ。。。
AIのミスをカバーするために、背景にある仕組みを理解する必要がある。実際に利用して経験するために利用する必要があると。
特に、その必要性が顕著に表れるのは、既存コードのリファクタリング分野ってことね。
リファクタリングスキルは、すぐに身につくものではない。理由としては、適用するしないの判断や状況によりけりな場合もあるので、経験や実施内容とそれの効果測定がいるんじゃないかなと。
ただ、経験するチャンスだけ待つのは、果報を寝て待ての悪いパターンで、効率が悪い。リファクタリング論を本で学ぶってのがいいのではないかと思ってる。あとは、実際にリファクタリング前のコードを持ってきて、自分なりにリファクタリングしたあとに本の結果と比較してみるってのがいいと思う。実際にコード書いて考える体験に勝るものはない。
責任を持つにはどうしたらいいか考えたけど、全部負うってのは無理なので、範囲と内容を理解して目標設定し、それを適切に管理することって理解でいる。
「責任を取る」とか「責任を持つ」って言葉、貧乏くじを引くのは誰かって意味に聞こえるだよね。。。
たぶん、最近の人は、そういう印象を持っている人が多いのではなかろうか?
リスク回避で責任がないことをやる人が多いのも、そういうことだと思ってる。
AIが仕事に出てくる以上、否が応でも、責任が付きまとうので、責任範囲とやるべき作業を理解するのは、今後、さらに重要になってくるってのは分かった。
単にAIツールを使うのではなく、それの正確性の担保が、これから重要になってくるので、今後も意識してAIツールは使っていきたい。
結局、LLMとかのAIツールはただの道具。特性を理解して、正しく使うのが大事だなって改めて思う。