規制は「リスクベース」でなければならない、とG7はAIについて発言

グループの国々の技術分野の大臣が今週末日本で会合した

G7はAI(人工知能)に関する規制を採択すべきだ」リスクベース」、グループの加盟国の技術分野の大臣によると。 彼らは今週末、日本で再会しました。 ミーティング 5月19日から21日まで広島市で開催されるG7サミットに先立って。

今週の日曜日(2023 年 4 月 30 日)に発行された共同コミュニケで、閣僚は、この規則は「AI の開発と展開のためのオープンで助長的な環境を維持する」。 それを読んで 完了 文書の英語 (318 Ko)。

G7 には、ドイツ、カナダ、米国、フランス、イタリア、日本、英国が含まれます。 欧州連合もグループの会議に参加しています。

閣僚は、次のことを認めた。信頼できる AI の共通のビジョンと目標を達成するための政策手段G7 の国によって異なる場合があります。 しかし、彼らは、プライバシーの懸念とセキュリティリスクの中で、主要国がAIをどのように規制するかについての枠組みを合意で定める必要があると述べています.

AIの開発が急速に進んでおり、社会に大きな影響を与える可能性があることを認識しています」、プレスリリースを読みました。 “AI が私たちの社会に与える潜在的な影響を念頭に置いて、AI のポリシーと規制は、技術的および制度的特性とその影響に敏感な方法でアプリケーションのコンテキストに合わせて調整する必要があることも認識しています。そして倫理的側面。

文書の中で、閣僚は「短期的な機会と課題を検討する必要があるジェネレーティブ AI – ChatGPT などのチャットボットで使用されるテクノロジー。

我々は、ジェネレーティブ AI に関する今後の G7 の議論を招集する予定です。これには、ガバナンス、著作権を含む知的財産権の保護方法、透明性の促進、偽情報との戦い (外国情報の取り扱いを含む)、責任を持ってこれらの技術を使用する方法などのトピックが含まれる可能性があります。“、 彼らは言った。

彼らは、議論はOECD(経済協力開発機構)などの組織の経験を利用すべきだと述べた。

私たちは、信頼できる AI フレームワーク間の類似点と相違点をマッピングするための OECD のこれまでの作業を称賛し、相互運用性を促進するこの作業をサポートするために協力することを楽しみにしています。“、 彼らは言った。

添付文書(完了英語 – 105 KB)、日本での閣僚会議は次のように宣言しました。国際的な AI 標準の採用を奨励する「人工知能に移行する方法として」信頼性のある」。 彼らによると、それは必要です利害関係者を国際的な取り組みに敏感にさせる” 件名に。


AI の詳細:

Kawata Ichirou

「インターネット愛好家。ビール愛好家。誇り高きテレビの第一人者。邪悪な音楽の専門家。フレンドリーなベーコン ファン。微妙に魅力的なソーシャル メディア中毒者。ウェブ研究者」

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です