AIの導入が増えるに連れ、ソフトウェア開発者はリスク管理という課題に直面している(海外)
11月のAI円卓会議で開発者らは、AIツールはコーディングにおいて重要な役割を担っていると述べた。 AIは生産性を上げることができる一方、限界があるということも利害関係者は理解すべきだという。 本記事は「CXO AI Playbook(経営者のAI作戦帳)」の一部で、AIのテストおよび使用方法についてのビジネス・リーダーたちの率直な意見だ。 11月に行われたBusiness InsiderのAI(人工知能)円卓会議で、ナイス(Nice)の応用AI部門責任者、ニラジ・ベルマ(Neeraj Verma)は、生成AIは「優秀な開発者をより良く、そうでない開発者をより悪くする」と唱えた。 従業員がAIを使って、ウェブページつまりHTMLファイルを作り、コードに解決策をコピー&ペーストするだけで良いと期待している企業もあると付け加えた。「今、そうした企業は、従業員全員が開発者であることを期待している」とベルマは述べた。 このバーチャル・イベントにおいて、メタ(Meta)、スラック(Slack)、アマゾン(Amazon)、スラロム(Slalom)などのソフトウェア開発者らは、AIが自分たちの役割やキャリアに、いかに影響を及ぼしているかなどについて議論した。 AIは、ルーチン・コードを書いたり、プログラミング言語間のアイデアの変換をしたりするタスクの助けにはなるかもしれないが、AIをツールとして効果的に使うには、コーディングの基礎的なスキルが必要だという。こうした現実を非テックの利害関係者に伝えることが、多くのソフトウェア開発者にとって主な課題だ。
限界を理解する
コーディングは開発者の仕事のほんの一部でしかない。AIの導入が急増するにつれ、テストや品質保証がより重要になるかもしれない。AIによる成果物の、正確性を検証するためだ。アメリカ労働統計局(BLS)は、ソフトウェア開発者、品質管理アナリスト、テスターの人数が今後10年で17%成長すると予測している。 また、生産性への期待はAIの倫理とセキュリティについての懸念を覆い隠してしまう可能性がある。 「ChatGPTやCloud AIとの関わりは簡単かつ自然すぎて、AIの動作をコントロールすることがいかに難しいか、驚いてしまうほどだ」とオーグメント(Augment)の共同創業者のイゴール・オストロフスキー(Igor Ostrovsky)は会議で述べた。 「AIに、人々が期待するような楽しいユーザー体験を常に提供させようとすることは、実際、非常に難しく、リスクも多い」 企業は最近、AIの発表に際し、こうした問題に直面している。マイクロソフト(Microsoft)のCopilotは、オーバーシェアリングとデータ・セキュリティーの問題が指摘されだが、同社は内部プログラムを作ってリスクに対処した。テック大手はAIテクノロジーに何十億ドルも投資している。マイクロソフトだけでも2027年までに、1000億ドル(約15兆5000億円)超をグラフィックス・プロセッシング・ユニット(GPU)とAIの動力となるデータセンターに費やす計画だ。しかし、AIガバナンス、倫理、リスク分析への投資はそれほど多くはない。