マイクロソフトのAIツール、Copilotがもたらすコーダーの働き方改革
(ブルームバーグ): ソフトウエア開発者のニコライ・アフテニーブ氏は2021年、米マイクロソフトが提供するコーディングアシスタント「Copilot(コパイロット)」のプレビュー版を手にし、すぐにその可能性を実感した。
マイクロソフトのコーディングプラットフォーム「GitHub(ギットハブ)」で開発され、米オープンAIが提供する生成AI(人工知能)をベースにしたCopilotは、完璧ではなく、時には間違えることもあった。しかしチケット販売会社スタブハブで働くアフテニーブ氏は、わずかなプロンプトで見事にコード行を完成させたことに驚いた。タブキーを押すだけで、あとはCopilotが埋めてくれた。
「15回のキーストロークが3回で済んだ」とアフテニーブ氏。「ちょっとしたスピードアップになった」と当時を振り返った。
あれから3年が経過し、オープンAIのGPT-4最新版が導入されたことで、Copilotはエンジニアの質問に答えたり、コードのプログラミング言語を別の言語に変換したりと、さらに多くのことができるようになった。その結果、このソフトウエア作成における役割はますます拡大し、企業では重要システムのプログラミングに使われるまでになっている。
生成AIを大量使用する最初の専門家集団がソフトウエアエンジニアだ。Copilotは彼らの働き方を徐々に改革してきた。マイクロソフトによると、Copilotはこれまでに130万の顧客を獲得し、そこには小規模な新興企業からゴールドマン・サックスやフォード、アーンスト・アンド・ヤングといった企業まで5万社が含まれる。面倒な反復作業をCopilotが処理することで、エンジニアは月に数百時間を節約し、より難しい課題に集中する時間を確保しているという。
AI全般に言えることだが、GitHub Copilotにも限界がある。開発者によると、古いコードを引っ張り出したり、質問に対して役に立たない回答をしたり、バグがあったり、著作権を侵害する可能性のある提案を生成したりすることがある。このツールは公開されたオープンなコードリポジトリで学習するため、セキュリティー上の問題を複製したり、問題を取り込む危険性がある。特にエンジニアがCopilotの推奨を何の疑い持たずそのまま受け入れると、その危険性は高まる。