シリコンバレーのAI安全性提唱者への圧力
シリコンバレーのAI業界リーダーたちが、AI安全性推進団体に対する発言で波紋を広げています。ホワイトハウスのAI・暗号担当ツァーであるデイビッド・サックス氏とOpenAIの最高戦略責任者であるジェイソン・クォン氏は、AI安全性提唱者たちが見かけほど高潔ではなく、自身の利益や背後にいる億万長者の意向で動いていると主張しました。TechCrunchの取材に応じたAI安全性団体は、これらの主張がシリコンバレーによる批評家への最新の、しかし初めてではない威嚇行為であると述べています。
過去の事例と現在の懸念
2024年には、一部のベンチャーキャピタル企業が、カリフォルニア州のAI安全性法案SB 1047がスタートアップ創業者を投獄する可能性があるという噂を広めました。ブルッキングス研究所はこの噂を法案に関する多くの「誤解」の一つとしましたが、ギャビン・ニューサム知事は最終的に法案に拒否権を行使しました。サックス氏とOpenAIが批評家を威嚇する意図があったかどうかに関わらず、彼らの行動は複数のAI安全性提唱者を十分に怖がらせています。TechCrunchが先週接触した多くの非営利団体のリーダーは、団体への報復を避けるため、匿名を条件に話すことを求めました。
David Sacks氏によるAnthropic批判
火曜日、サックス氏はXに投稿し、AIが失業、サイバー攻撃、社会への壊滅的な損害に寄与する可能性について懸念を表明しているAnthropicが、単に恐怖を煽り、自身に利益をもたらし、小規模なスタートアップを書類仕事で潰すような法律を通そうとしていると主張しました。Anthropicは、大規模AI企業に安全性報告要件を課すカリフォルニア州上院法案53(SB 53)を支持した唯一の主要AIラボであり、この法案は先月法律として署名されました。サックス氏は、Anthropicの共同創設者であるジャック・クラーク氏のAIに対する懸念に関するバイラルなエッセイに応答していました。
OpenAIの非営利団体への召喚状
今週、OpenAIの最高戦略責任者であるジェイソン・クォン氏もXに投稿し、同社がEncodeのようなAI安全性非営利団体に召喚状を送った理由を説明しました。クォン氏は、イーロン・マスク氏がOpenAIを提訴した後、いくつかの団体が同社の再編に反対を表明したことに透明性の疑問が生じたと述べました。Encodeはマスク氏の訴訟を支持するアミカス・ブリーフを提出しており、他の非営利団体もOpenAIの再編に公に反対していました。NBCニュースは今週、OpenAIがEncodeおよび同社を批判した他の6つの非営利団体に対し、マスク氏とMeta CEOのマーク・ザッカーバーグ氏というOpenAIの最大の敵対者2人に関連する通信記録を求める広範な召喚状を送ったと報じました。OpenAIはまた、Encodeに対しSB 53への支持に関連する通信記録も求めています。
OpenAI内部の亀裂と業界の反応
ある著名なAI安全性リーダーはTechCrunchに対し、OpenAIの政府渉外チームと研究組織の間で亀裂が深まっていると語りました。OpenAIの安全性研究者はAIシステムのリスクに関する報告書を頻繁に発表していますが、同社の政策部門はSB 53に反対し、連邦レベルでの統一的な規則を望むと主張していました。OpenAIのミッションアライメント責任者であるジョシュア・アキアム氏は、同社が非営利団体に召喚状を送ったことについてXで公に批判し、「私のキャリア全体にとってリスクとなるかもしれないが、これはあまり良いことではない」と述べました。
AI安全性非営利団体Alliance for Secure AIのCEOであるブレンダン・スタインハウザー氏は、OpenAIが批評家をマスク氏主導の陰謀の一部だと確信しているようだと語りました。しかし、彼はこれが事実ではないと主張し、AI安全性コミュニティの多くはxAIの安全性慣行に非常に批判的であると指摘しました。スタインハウザー氏は、「OpenAIの側では、これは批評家を沈黙させ、威嚇し、他の非営利団体が同様の行動をとるのを思いとどまらせることを意図している」と述べました。ホワイトハウスのAI担当上級政策顧問であるスリラム・クリシュナン氏は、AI安全性提唱者たちが「現実世界の人々」からかけ離れていると述べ、彼らが「家庭や組織でAIを使用、販売、採用している人々」と話すよう促しました。
AI安全性と経済成長のバランス
最近のピュー研究所の調査では、アメリカ人の約半数がAIについて興奮よりも懸念を抱いていることが示されていますが、具体的に何が彼らを心配させているのかは不明です。別の最近の調査では、アメリカの有権者がAI安全性運動が主に焦点を当てている壊滅的なリスクよりも、失業やディープフェイクについてより懸念していることが詳細に示されました。これらの安全性懸念に対処することは、AI業界の急速な成長を犠牲にする可能性があり、これはシリコンバレーの多くの人々が懸念しているトレードオフです。AIへの投資がアメリカ経済の多くを支えている現状では、過剰な規制への懸念は理解できます。しかし、長年の規制なきAIの進歩を経て、AI安全性運動は2026年に向けて真の勢いを増しているようです。シリコンバレーが安全性重視の団体に反撃しようとする試みは、彼らの活動が効果を上げている兆候かもしれません。
元記事: https://techcrunch.com/2025/10/17/silicon-valley-spooks-the-ai-safety-advocates/