OpenAIはなぜ信頼されにくくなっているのか(海外)
OpenAIはアメリカ国家安全保障局(NSA)の元長官ポール・ナカソネ氏を取締役会に迎えた。 ナカソネ氏の起用はAI(人工知能)のセキュリティ強化が狙いだが、監視への懸念を引き起こしている。 OpenAIでは、安全対策チームも事実上解散している。 オフィスの外には不気味な覆面警備員たち、取締役会にはNSAの元長官、AIの安全対策チームは事実上解散…。 OpenAIは日に日に、少しずつ"オープン"でなくなっている。 6月14日(現地時間)、同社はNSAの元長官ポール・ナカソネ氏を取締役に任命したと発表した。 ナカソネ氏はNSAの長官に加え、国防総省のサイバーセキュリティ部門にあたる米サイバー軍司令官も務めていた。OpenAIは、ナカソネ氏の起用は「安全とセキュリティへのコミットメント」を示すもので、AIが進化し続ける中、サイバーセキュリティの重要性を強調するものだと述べている。 「OpenAIのミッションへの献身は、わたし自身の価値観や公職における経験と合致している」とナカソネ氏はコメントした。 「汎用人工知能が世界中の人々にとって安全かつ有益なものとなるよう、OpenAIの取り組みに貢献できることを楽しみにしている」 ただ、批評家たちは、ナカソネ氏の起用が他の何かを表しているのではないかと懸念している。監視だ。 2013年に監視に関する機密文書をリークしたアメリカの内部告発者エドワード・スノーデン氏はX(旧Twitter)への投稿で、ナカソネ氏の起用は「地球上の全ての人間の権利に対する計画的な裏切り」だと指摘した。 「彼らは真の姿を見せた。OpenAIもしくはその製品(ChatGPTなど)を決して信用してはいけない」とスノーデン氏は書いている。 同氏は他にも、「AIとここ20年で蓄積された大規模な監視データの海が交差することで、本当に恐ろしい権力が責任を負わないごく少数の人間の手に渡ることになる」とXでコメントしている。 一方、上院情報委員会の委員長を務めるバージニア州選出のマーク・ワーナー(Mark Warner)上院議員は、ナカソネ氏の起用は「大きなプラス」だと考えている。 「広い意味で、セキュリティ・コミュニティーの中でこれほど尊敬されている人物はいない」とワーナー議員はAxiosに語った。 ナカソネ氏のセキュリティに関する専門知識は、セキュリティ上の問題から攻撃される可能性があると批評家が懸念しているOpenAIで必要とされるかもしれない。 OpenAIは4月、同社の研究員だったレオポルド・アッシェンブレナー(Leopold Aschenbrenner)氏を「重大なセキュリティ・インシデント」の詳細を記したメモの共有を理由に解雇した。アッシェンブレナー氏は、外国からの"窃盗"から守るにはOpenAIのセキュリティは「甚だ不十分」だと述べた。 その直後、OpenAIのスーパーアライメント・チーム ── 人間の利益に適合するAIシステムの開発に重点を置いていた ── は、同社の最も有名な安全性の研究者2人が辞めた後、突然解散した。 その1人であるヤン・ライク(Jan Leike)氏は、「会社の核となる優先事項について、OpenAIの経営陣とかなり長い間、意見が合わなかった」と明かしている。 もう1人のイリヤ・サツケバー(Ilya Sutskever)氏 ── OpenAIのチーフ・サイエンティストで、スーパーアライメント・チームを立ち上げた ── は、自身の退社の理由について、あまり語りたがらない。ただ、CEOのサム・アルトマン氏の解任に失敗したことで、サツケバー氏の立場は揺らいでいたと同社関係者は話している。サツケバー氏は、AIの開発に対するアルトマン氏の積極的なアプローチに反対で、それがこの2人の権力闘争に火をつけた。 そして、これでもまだ足りないようなら、サンフランシスコにあるOpenAIのオフィスの近くに住み、働いている地元の人々でさえ、この会社が不気味に思えてきたと言う。近所のペットショップのレジ係は、OpenAIのオフィスには「秘密主義の雰囲気」があるとサンフランシスコ・スタンダードに語った。 また、建物の外には覆面警備員らしき男性たちが立っているものの、彼らは自分たちがOpenAIのために働いているとは言わないと、近隣で働く複数の人々が話している。 「(OpenAIは)悪い隣人ではないが、秘密主義だ」と話す人もいる。
Kenneth Niemeyer,Lakshmi Varanasi