なぜ専門家は人工知能が人類を絶滅に導く可能性があると言うのかテクノロジー

人工知能セキュリティ センターは、このテクノロジーの悪用について考えられる一連の災害シナリオを示唆しています – 写真: GETTY IMAGES/VIA BBC

人工知能 (AI)人類を滅亡に追い込む可能性があると警告 専門家 – OpenAI と Google Deepmind の責任者も含まれます。

米国サンフランシスコに本拠を置く研究開発NGOであるCenter for AI Safety(大まかに訳すと人工知能セキュリティセンター)のページに掲載された声明を数十人が支持した。

  • 開発者は誰でも「AIガールフレンド」を持てるソフトウェアを開発
  • ハリー・ポッター、ロード・オブ・ザ・リング、50 シェイズ・オブ・グレイ: ChatGPT で最も読まれた本を発見する

「AI絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会全体のリスクと同様に、世界的な優先事項でなければならない」と公開書簡は強調している。

しかし、その懸念は誇張されていると言う人もいる。

OpenAIのマネージング・ディレクターでChatGPTの作成者であるサム・アルトマン氏、Google DeepMindのマネージング・ディレクターであるデミス・ハサビス氏、アンスロピック社のダリオ・アモデイ氏がこの声明を支持した。

Center for AI Safety からの文書では、考えられる災害シナリオをいくつか示唆しています。

  • AI は、たとえば化学兵器の製造に使用できる薬物を発見するツールなどで武装することができます。
  • AI が生成する誤った情報は社会を不安定にし、「集団的な意思決定を損なう」可能性があります。
  • AIの力はますます少数の手に集中し、「政府が広範な監視と抑圧的な検閲を通じて厳格な価値観を押し付ける」ことを可能にする可能性がある。
  • 人間がAIに依存するようになる弱体化は、「映画『ウォーリー』で描かれたものと同様のシナリオで」起こる。
  • 超知能AIのリスクについて以前に警告を発したジェフリー・ヒントン氏も、AI安全センターからの書簡を支持した。
  • カナダのモントリオール大学コンピューターサイエンス教授ヨシュア・ベンジオ氏もマニフェストに署名した。

ヒントン氏、ベンジオ氏、およびニューヨーク大学 (NYU) 教授のヤン・ルカン氏は、この分野での画期的な研究により「AI のゴッドファーザー」とよく評され、その功績により傑出した貢献を表彰する 2018 年チューリング賞を共同で受賞しました。コンピューティングに。

しかし、フェイスブックを所有するメタ社でも働くルカン教授は、そのような終末警告は「大げさ」であり、「こうした破滅の予言に対する人工知能研究者の最も一般的な反応は当惑である」と述べた。

他の多くの専門家も、AIが人類を滅ぼすという恐怖は非現実的であり、すでに問題となっているシステムバイアスなどの問題から目を逸らしていると信じている。

米国プリンストン大学のコンピューター科学者アルビンド・ナラヤナン氏はBBCに対し、SFの災害シナリオは非現実的だと語った。

「現在のAIは、こうしたリスクが現実化するのに十分な能力には程遠い。その結果、AIの短期的な害から注意が逸れてしまう」と同氏は述べた。

英国オックスフォード大学AI倫理研究所の上級研究員エリザベス・レニエリス氏はBBCニュースに対し、リスクの方が心配だと語った。

「AIの進歩により、偏見、差別、排他的、不公平な自動意思決定が強化されるだろう。一方で、侵入不可能で異議の余地はない」と彼女は述べた。

こうした進歩は、「偽情報の量と拡散の指数関数的な増加に拍車をかけ、それによって現実を破壊し、国民の信頼を損なう一方、特にデジタル格差の間違った側に留まる人々に新たな不平等を生み出す可能性がある。」

多くの AI ツールは本質的に「これまでの人間の経験すべて」に「便乗」しているとレニリス氏は指摘します。

これらのテクノロジーの多くは、人間が作成したコンテンツ、テキスト、アート、音楽で形成されており、その作成者は「莫大な富と権力を公的領域から少数の民間団体に事実上移転した」。

休憩が要求されました

テスラのオーナー、イーロン・マスクを含む専門家が次世代AI、AI技術の開発中止を求める公開書簡に署名した2023年3月以来、「存在する」AIの脅威とされるメディアの報道が増えている。

この手紙は、私たちが「最終的には成長し、より賢くなり、時代遅れになり、私たちに取って代わるであろう人間以外の心を開発」すべきかどうかを尋ねました。

一方、専門家らが発表した新たな書簡には、「議論の開始」を目的とした非常に短い宣言が含まれている。

この声明は、そのリスクを核戦争によってもたらされるリスクに例えている。

OpenAIは最近ブログ投稿で、超知能は原子力と同じように規制できる可能性があると示唆した。

「最終的には、スーパーインテリジェンスの取り組みのためにIAEA(国際原子力機関)のようなものが必要になる可能性が高い」と同社は書いている。

慎重な分析

サム・アルトマン氏とグーグルのサンダー・ピチャイ最高経営責任者(CEO)は、最近英国のリシ・スナック首相とAI規制について話し合ったテクノロジーリーダーの一人だ。

最新のAIリスク警告について記者団に語ったスナク氏は、このテクノロジーが経済と社会にもたらす利点を強調した。

「最近、AIが麻痺した人々の歩行を助けたり、新しい抗生物質を発見したりしているのを見たことがあると思いますが、それが安全かつ確実な方法で行われることを確認する必要があります」と彼は言いました。

「だからこそ私は先週、主要なAI企業のCEOらと会い、私たちが設置する必要がある障壁や、私たちの安全を守るためにどのような規制を導入する必要があるかについて話し合いました。」

「人々は、AIがパンデミックや核戦争のような実存的リスクをもたらすという報道を懸念するだろう。しかし、政府がこの問題を非常に慎重に検討しているということを安心してもらいたい。」

スナク氏は、最近日本で開催されたG7サミットで他の首脳らとこの問題について話し合っており、近く米国当局者ともこの問題を取り上げると述べた。

最も裕福な国のサミットでは、最近でも AI 作業グループが設立されました。

– このテキストは、 https://www.bbc.com/english/articles/c51q3jvlyj8o

Kawata Ichirou

「インターネット愛好家。ビール愛好家。誇り高きテレビの第一人者。邪悪な音楽の専門家。フレンドリーなベーコン ファン。微妙に魅力的なソーシャル メディア中毒者。ウェブ研究者」

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です